azure kinect 深度相机原理
RGB原理就不要讲了
工作原理
Azure Kinect DK 深度相机实现调幅连续波 (AMCW) 时差测距 (ToF) 原理。 该相机将近红外 (NIR) 频谱中的调制光投射到场景中。 然后,它会记录光线从相机传播到场景,然后从场景返回到相机所花费的间接时间测量值。
处理这些测量值可以生成深度图。 深度图是图像每个像素的一组 Z 坐标值,以毫米为单位。
连同深度图一起,我们还可以获得所谓的清晰 IR 读数。 清晰 IR 读数中的像素值与从场景返回的光线量成正比。 图像类似于普通的 IR 图像。 下图显示了示例深度图(左)的对应的清晰 IR 图像(右)。
主要功能
深度相机的技术特征包括:
配备高级像素技术的 1 兆像素 ToF 成像芯片,实现更高的调制频率和深度精度。
两个 NIR 激光二极管实现近距和宽视场 (FoV) 深度模式。
全球最小的 3.5μm x 3.5μm ToF 像素。
自动像素增益选择支持较大的动态范围,允许捕获清晰的近距和远距对象。
全局快门可帮助改善日光下的拍摄性能。
多相位深度计算方法能够实现可靠的准确度,即使芯片、激光和电源存在差异。
较低的系统误差和随机误差。
深度相机将原始的调制 IR 图像传输到电脑主机。 在电脑上,GPU 加速的深度引擎软件会将原始信号转换为深度图。 深度相机支持多种模式。 窄视场 (FoV) 模式非常适合 X、Y 维度范围较小,但 Z 维度范围较大的场景。 如果场景中的 X、Y 范围较大,但 Z 范围较小,则宽 FoV 模式更合适。
装箱的代价是降低图像分辨率。 所有模式都能够以高达 30 帧/秒 (fps) 的速率运行,但 1 兆象素 (