这篇Paper是由牛津大学出品,一作现在在英国Scape Tech做视觉定位、AR的东西。二作去了Nuro做SLAM的老大~ 三作是牛津的Prof,同时在Oxbotica创业做CTO。不得不说,三个人还是蛮强的~ 二作的人后面出来了NID-SLAM,可以说是延续了image similarity比较的思路。
这一篇和上一篇说的方法基本类似,基本流程如下:
- 建图:将camera和LiDAR进行融合成带有RGB的地图,并且使用Triangle mesh grid使地图变得稠密。即使是用2D LiDAR,建出来的图也是可圈可点的
- 定位:使用NID求导来更新pose
- 优化去噪:使用里程计去除相差很大的定位结果
- 在线标定camera和LiDAR:使用多帧NID方法来做在线标定
- 传感器时间同步:Camera和LiDAR的时间同步用了Oxford的一个没有开源的方法
- 需要初始的pose:使用GPS得到
比较新颖的点在于:
- 时间长:长达六个月的数据采集,跨了不同的季节
- 使用了NID而不是暴力破解的方法
需要改进:
- 动态物体占了非常多的面积的时候
- 白天的数据不能用于晚上
- 曝光太严重的时候,比如早上和日落
- 去噪依赖于视觉里程计
最后结果:
在不少数据集下面精度在30cm(translation)以内,已经是非常优秀的定位精度了。旋转精度在1度以内~
转载请注明出处: https://blog.csdn.net/c602273091/article/details/88906330