二维图片,人眼可以通过物体的相对位置关系判断物体距离的远近,而相机则不可以。
深度相机(3D相机)就是终端和机器人的眼睛,其就是通过该相机能检测出拍摄空间的景深距离。通过深度相机获取到图像中每个点距离摄像头的距离,在加上该点在 2D 图像中的二维坐标,就能获取图像中每个点的三维空间坐标。
结构光(Structured-light)
其原理是基本原理是,通过近红外激光器,将具有一定结构特征的光线投射到被拍摄物体上,再由专门的红外摄像头进行采集。这种具备一定结构的光线( 根据编码图案不同一般有条纹结构光enshape ,编码结构光Mantis Vision, Realsense(F200), 散斑结构光apple(primesense)),会因被摄物体的不同深度区域,而采集反射的结构光图案的信息,然后通过运算单元将这种结构的变化换算成深度信息,以此来获得三维结构。
简单来说就是,通常采用特定波长的不可见的红外激光作为光源,它发射出来的光经过 一定的编码投影在物体上,通过一定算法计算返回的编码图案的畸变来得到物体的位置和深度信息。