目的
使用雷达点云提供的深度信息
如何实现
将雷达的三维点云投影到相机的二维图像上
kitti数据集简介
kitti的数据采集平台,配置有四个摄像机和一个激光雷达,四个摄像机中有两个灰度摄像机,两个彩色摄像机。
从图中可看出,关于相机坐标系(camera)的方向与雷达坐标系(velodyne)的方向规定:
camera: x = right, y = down, z = forward
velodyne: x = forward, y = left, z = up
那么velodyne所采集到的点云数据中,各点的x轴坐标,即为所需的深度信息。
更多详细的简介网络上都能搜索到,这里只列举了与当前目的相关的必要信息。
kitti数据集的raw_data
raw_data对于每个序列都提供了同步且校准后的数据、标定数据。
同步且校准后的数据:
./imageXX 包含有各个摄像机采集到的图像序列
./velodyne_points 包含有雷达扫描到的数据,点云形式,每个点以 (x,y,z,i) 格式存储,i为反射值
(雷达采集数据时,是绕着竖直轴旋转扫描,只有当雷达旋转到与相机的朝向一致时会触发相机采集图像。不过在这里无需关注这一点,直接使用给出的同步且校准后的数据即可,它已将雷达数据与相机数据对齐,也就是可以认为同一文件名对应的图像数据与雷达点云数据属于同一个场景。)
标定数据:
./cam_to_cam 包含有各个摄像机的标定参数
./velo_