2017.4.8
最近参加了didi和UDACITY举办的无人驾驶算法大赛,对车辆在行驶过程中的车辆和行人目标进行检测,和我之前做的目标检测不同,这次的目标检测需要的是移动物体的目标检测,也就是说,需要在视频中对移动物体的环境信息进行量距和地图构建,确定出视频中移动物体和目标的运动情况,对检测的车辆和行人目标,需要框出目标的三维bounding box和方位信息,所以这也比之前所做的目标检测要复杂的多,因为要考虑到多个传感器信息的融合。在传统的2D目标检测中,只需要对通过camera对视频图像信息进行检测即可,不需要给出物体的距离信息和物体的三维参数,而在3D目标检测中,就需要通过camera、laser scanner、GPS等传感器的信息进行融合,这也是解决3D目标检测的核心问题。
由于比赛是基于KITTI数据库,所以benchmarks也是基于CVPR2012年的一篇论文来定的,Are we ready for Autonomous Driving? The KITTI Vision Benchmark Suite。
在benchmarks选择上,该数据库的评估采用了多样的度量方法,针对不同的任务有不同的度量策略。
对于立体光流( stereo and optical flow)的benchmarks: