kinect深度距离误差_azure kinect 深度相机原理

本文介绍了Azure Kinect DK深度相机的工作原理,利用AMCW TOF技术进行距离测量。相机具备高精度像素技术和多种模式,但也存在系统误差、随机误差和失效像素等问题。系统误差通过静态场景的时态平均值来评估,随机误差则表现为深度的标准偏差。失效原因包括信号饱和、强度低、多路径干扰等。
摘要由CSDN通过智能技术生成

azure kinect 深度相机原理

RGB原理就不要讲了

工作原理

Azure Kinect DK 深度相机实现调幅连续波 (AMCW) 时差测距 (ToF) 原理。 该相机将近红外 (NIR) 频谱中的调制光投射到场景中。 然后,它会记录光线从相机传播到场景,然后从场景返回到相机所花费的间接时间测量值。

处理这些测量值可以生成深度图。 深度图是图像每个像素的一组 Z 坐标值,以毫米为单位。

连同深度图一起,我们还可以获得所谓的清晰 IR 读数。 清晰 IR 读数中的像素值与从场景返回的光线量成正比。 图像类似于普通的 IR 图像。 下图显示了示例深度图(左)的对应的清晰 IR 图像(右)。

主要功能

深度相机的技术特征包括:

配备高级像素技术的 1 兆像素 ToF 成像芯片,实现更高的调制频率和深度精度。

两个 NIR 激光二极管实现近距和宽视场 (FoV) 深度模式。

全球最小的 3.5μm x 3.5μm ToF 像素。

自动像素增益选择支持较大的动态范围,允许捕获清晰的近距和远距对象。

全局快门可帮助改善日光下的拍摄性能。

多相位深度计算方法能够实现可靠的准确度,即使芯片、激光和电源存在差异。

较低的系统误差和随机误差。

深度相机将原始的调制 IR 图像传输到电脑主机。 在电脑上,GPU 加速的深度引擎软件会将原始信号转换为深度图。 深度相机支持多种模式。 窄视场 (FoV) 模式非常适合 X、Y 维度范围较小,但 Z 维度范围较大的场景。 如果场景中的 X、Y 范围较大,但 Z 范围较小,则宽 FoV 模式更合适。

装箱的代价是降低图像分辨率。 所有模式都能够以高达 30 帧/秒 (fps) 的速率运行,但 1 兆象素 (

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值