RGB原理就不要讲了

Azure Kinect DK 深度相机实现调幅连续波 (AMCW) 时差测距 (ToF) 原理。 该相机将近红外 (NIR) 频谱中的调制光投射到场景中。 然后,它会记录光线从相机传播到场景,然后从场景返回到相机所花费的间接时间测量值。

处理这些测量值可以生成深度图。 深度图是图像每个像素的一组 Z 坐标值,以毫米为单位。

连同深度图一起,我们还可以获得所谓的清晰 IR 读数。 清晰 IR 读数中的像素值与从场景返回的光线量成正比。 图像类似于普通的 IR 图像。 下图显示了示例深度图(左)的对应的清晰 IR 图像(右)。

深度相机的技术特征包括:

配备高级像素技术的 1 兆像素 ToF 成像芯片,实现更高的调制频率和深度精度。

两个 NIR 激光二极管实现近距和宽视场 (FoV) 深度模式。

全球最小的 3.5μm x 3.5μm ToF 像素。

自动像素增益选择支持较大的动态范围,允许捕获清晰的近距和远距对象。

全局快门可帮助改善日光下的拍摄性能。

多相位深度计算方法能够实现可靠的准确度,即使芯片、激光和电源存在差异。

较低的系统误差和随机误差。

深度相机将原始的调制 IR 图像传输到电脑主机。 在电脑上,GPU 加速的深度引擎软件会将原始信号转换为深度图。 深度相机支持多种模式。 窄视场 (FoV) 模式非常适合 X、Y 维度范围较小,但 Z 维度范围较大的场景。 如果场景中的 X、Y 范围较大,但 Z 范围较小,则宽 FoV 模式更合适。

装箱的代价是降低图像分辨率。 所有模式都能够以高达 30 帧/秒 (fps) 的速率运行,但 1 兆象素 (MP) 模式除外,它的最大运行帧速率为 15 fps。 深度相机还提供被动 IR 模式。 在此模式下,照像机上的照明器不会激活,只能观测到环境光。

系统误差定义为消噪后测得的深度与正确(真实)深度之差。 我们会根据静态场景的许多帧计算时态平均值,以消除尽可能多的深度噪声。 更确切地说,系统误差定义为:

假设我们在没有移动相机的情况下拍摄了同一对象的 100 张图像。 在这 100 张图像中,每张图像的对象深度略有不同。 这种差异是散粒噪声造成的。 发生散粒噪声的原因是,在一段时间内,进入传感器的光子数因某种随机因素而有变化。 我们将静态场景中的这种随机误差定义为一段时间内的深度标准偏差

在某些情况下,深度相机可能无法提供某些像素的正确值。 在这种情况下,深度像素将会失效。 无效的像素由深度值 0 表示。 深度引擎无法生成正确值的原因包括:

超出活动 IR 照明遮罩范围

IR 信号饱和

IR 信号强度低

多路径干扰

当像素超出活动 IR 光照的遮罩范围时,它们将会失效。 我们不建议使用此类像素的信号来计算深度。 下图显示了超出照明遮罩范围而导致像素失效的示例。 失效的像素包括宽 FoV 模式的圆圈(左)和窄 FoV 模式的六边形(右)外部的黑色像素。

当像素包含饱和的 IR 信号时,它们将会失效。 像素饱和后,相位信息将会丢失。 下图显示了 IR 信号饱和导致像素失效的示例。 请查看指向深度图像和 IR 图像中的示例像素的箭头。

如果像素从场景中的多个对象收到了信号,则它们也可能会失效。 在角落中经常会看到这种像素失效的情况。 由于场景的几何结构,照相发出的 IR 光会从一堵墙反射到另一堵墙。 这种反射光会导致测得的像素深度出现歧义。 深度算法中的滤波器会检测这些有歧义的信号,并使像素失效。

azure kinect 深度相机原理RGB原理就不要讲了工作原理Azure Kinect DK 深度相机实现调幅连续波 (AMCW) 时差测距 (ToF) 原理。 该相机将近红外 (NIR) 频谱中的调制光投射到场景中。 然后,它会记录光线从相机传播到场景,然后从场景返回到相机所花费的间接时间测量值。处理这些测量值可以生成深度图。 深度图是图像每个像素的一组 Z 坐标值,以毫米为单位。连同深度图...
近期有一个项目用到了 Azure Kinect ,之前 Kinect 1与 Kinect 2均使用过的老用户,自然不能放过这个机会。为此专门对 Azure Kinect 进行了学习,以下是这次自己调研摸索的一些成果 Azure Kinect 简介 在芯片顶级会议 ISSCC 2018微软亮相自家的一百万像素的 ToF传感器,与此在论文发表三个月后,小型化的 Kinect for Azure (K4A)工业用开发套件已经备货准备向消费者售卖。司唯方作者在19年10月即对 Azure Kinect DK 基本开发流程做了详细的
本文采用多台 Azure kinect 实现了对人体的动态捕捉 文章目录前言一、多台 Azure kinect 的配准1、硬件配准2、利用k4arecorder录制二、点云采集三、点云配准1.基于AprilTag的粗配准[1]2.基于彩色ICP的细配准[2]四、点云相加五、开源项目推荐总结参考文献 如果你是刚接触 kinect 的小白,建议认真阅读Microsoft给出的官方文档 如果你打算自己开发 azure kinect 的程序,请参考官方的SDK手册 如果你想在win下配置 azure kinect 的开发.
要将 Azure Kinect DK 的 深度 图像转化为彩色图像,您需要进行以下步骤: 1. 捕获 深度 图像和彩色图像:使用 Azure Kinect DK 捕获 深度 图像和彩色图像,并将它们保存到计算机上。 2. 使用 深度 图像作为掩码:使用 深度 图像将彩色图像复制到一个空白图像中。对于每个像素,请检查对应的 深度 图像中的像素值。如果它在您要转换的 深度 范围内(例如,0.5米到2米之间),则将原始彩色像素值复制到输出图像中。 3. 进行归一化:将 深度 图像的像素值从原始值归一化为 0 和 1 之间的值(例如,除以最大 深度 值)。 4. 应用彩色映射:使用归一化的 深度 值作为参数,应用适当的颜色映射函数,在输出图像上显示不同 深度 范围的像素。 5. 输出图像:保存或显示彩色 深度 图像。 注意:在进行 深度 到彩色转换时,需要注意计算机视觉应用程序的需求和 深度 数据的质量。例如,在低质量 深度 数据中, 深度 图像可能包含噪声和伪影,这可能影响 深度 到彩色转换的结果。