最近老师要做无人车的位姿估计,所谓的位姿估计就是估计某一刻车子的三个方位角和三个旋转角数据,位姿估计在无人驾驶中十分重要,是视觉里程碑的底层算法实现。老师让我在下面的毕业论文中选择一篇详细看,然后后天给老师报告。
- 基于视觉里程计的无人驾驶车辆定位关键算法研究 南航 2017
- 基于单目视觉几何的智能车辆位姿估计 2018 浙大
- 基于道路标识牌的单目相机车辆位姿估计 2017 山东大学
- 基于深度神经网络的视觉位姿估计方法研究2018 中科大
我大概粗略看了一下,前两篇都是基于几何建模的方式,进行位姿估计,中科大的是基于神经网络的,并且之后我去中科大的智能所夏令营,所以我便选择了这一片。
这篇论文首先介绍了基于几何方法建模不可以得到实际尺度的问题,尽管有解决实际尺度的方案,但是还是颇为麻烦,不能自适应的自动解决此问题。
基于几何算法计算相机位姿然后借助其他的优化策略(比如卡尔曼滤波等)算法调优。通过几何解算得到的位姿变化矩阵往往进行了标准化,真实尺度恢复问题是发展单目SLAM的阻碍,无法很好的解决(其实还是有解决方案的)
单目摄像头无法直接测量物体的距离,只能通过相关的几何关系推出像素的相对深度(无法得到场景的真实尺度)得到的运动轨迹都是在标准化或者缩放之后的结果,为了解决这个问题,研究者们在系统中增加IMU惯导。(这里需要问学长)
(论文1.3中)单目SLAM主要研究相机位姿和像素深度的估计和更新,非滤波算法克服了滤波算法的运算速度问题(不适用此前所有时刻的状态),仅需要利用部分图像帧的数据。目前基于优化理论的方法成为领域内的主流。