【ipaper】 Visual Odometry 和Visual SLAM概述: 第二部分

Related Work(相关工作)

Visual Odometry (视觉里程计)

VO 的定义是通过环境中的一系列图像来估计机器人的运动(相对于参考坐标系的平移和旋转)的过程。VO是 运动恢复结构(SFM)技术的一种特殊情况,其解决了环境结构和来自有序或者无序图像集的相机姿态的3D重建问题[101]。SFM对相机姿态和结构的最终改进和全局优化步骤在计算上是昂贵的并且通常是离线执行的。然而我们需要实时的进行VO中的相机姿态估计。近几年,许多关于单目[19]和双目相机[79]的VO方法。这些方法之后进一步被划分为feature matching(在多个帧上的匹配特征)[108],feature tracking [31](相邻帧的匹配技术)和flow techniques[118](光流技术,基于所有或连续图像的特定区域的像素强弱)。

通过观察一系列图像估计机器人的自我运动的问题始于20世纪80年代由斯坦福大学的Moravec [82]开始。Moravec使用一种立体视觉形式(在轨道上滑动的单个摄像机)以移动和停止方式,机器人将停止在第一个图像中提取图像特征(角点(corners)),然后摄像机将在轨道上垂直滑动相对于机器人运动的方向,并重复该过程,直到捕获总共9个图像。在9个图像之间使用归一化交叉相关(NCC)并且使用他们来重建3D结构。然后通过对准从不同位置观察到的重建3D点来获得相机运动变换。Matthies和Shafer [79]后来通过使用3D高斯分布导出误差模型而不是Moravec方法中使用的标量模型来扩展上述工作。其他与stereo VO相关的值得注意的作品也出现在文献中。例如,在[90]中,提出了一种用于对误差进行建模的最大似然自我运动方法,用于长距离漫游车的精确定位,而[73]描述了一种依靠原始图像数据而不是几何数据的户外漫游车定位方法用于运动估计。

Nister等人首次提出术语“Visual Odometry”,[88] 因为它和车轮里程计的概念相似。他们提出了在单目和双目立体系统中通过视觉输入获取相机的运动的开创性方法。他们专注于在存在异常值(假特征匹配)的情况下估计相机运动的问题,并且提出了使用RANSAC[44]的异常值的去除方案。也是第一个在所有帧中跟踪特征而不是在连续帧中匹配特征的方案。这具有避免在基于互相关的跟踪期间的特征漂移的益处[101]。他们还提出了使用3D到2D重投影误差的基于RANSAC的运动估计(参见“运动估计”部分),而不是使用3D点之间的欧几里德距离误差。与3D到3D误差相比,使用3D到2D重新投影误差可以提供更好的估计[56]。

VO最著名的应用是正在进行的火星机器人的探索任务[22],该任务开始于2003年,涉及两个探测器,用于探测火星表面和地质学。其他涉及VO的研究由 Scaramuzza和Siegwart [102]进行,他们在室外环境中使用单目全向摄像机关注地面车辆的VO,并融合通过以下两种方法获得的运动估计。在第一种方法中,他们提取了SIFT[77]特征并且使用RANSAC进行异常值去除,而在第二种方法中使用一种基于外观的方法,它最初由[27]提出,已经用于小车姿态的估计。

Kaess [67]提出一种用于室外导航的stereo VO系统,通过特征·匹配获得稀疏流,并且被分成基于近距离和远距离特征的流(flow)。分离的基本原理是相机平移的微小变化不会明显影响远处的点。远点用于恢复旋转变换(使用两点RANSAC(two-point RANSAC)),而近点用于使用单点RANSAC(one-point RANSAC)恢复平移[67]。Alcantarilla等将从流动分离法(flow separation method)得到的视觉里程计的方法整合到他们的EKF-SLAM系统的运动模型中,以提高定位和绘图的准确性。

到目前为止,我们已经讨论了VO问题的历史,并提到了该领域的一些开创性工作,主要集中在单目VO,双目VO,运动估计,误差建模,基于外观(appearance based)和基于特征的技术上。 在下一节中,我们将介绍视觉SLAM问题的简要历史和相关工作。

参考文献

[3].Alcantarilla, P., Bergasa, L., Dellaert, F.: Visual odometry priors for robust ekf-slam. In: IEEE International Conference on Robotics and Automation (ICRA), pp. 3501–3506 (2010)

[19].Campbell, J., Sukthankar, R., Nourbakhsh, I., Pahwa, A.: A robust visual odometry and precipice detection system using consumergrade monocular vision. In: Proceedings of the 2005 IEEE International Conference on Robotics and Automation (ICRA 2005), pp. 3421–3427 (2005)

[31].Dornhege, C., Kleiner, A.: Visual odometry for tracked vehicles. In: Proceedings of the IEEE International Workshop on Safety, Security and Rescue Robotics (SSRR) (2006)

[44].Fischler, M., Bolles, R.: Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography. Commun. ACM 24(6), 381–395 (1981)

[56].Henry, P., Krainin, M., Herbst, E., Ren, X., Fox, D.: RGB-D mapping: using kinect-style depth cameras for dense 3D modeling of indoor environments. Int. J. Robot. Res. 31(5), 647–663 (2012)

[67].Kaess, M., Ni, K., Dellaert, F.: Flow separation for fast and robust stereo odometry. In: IEEE International Conference on Robotics and Automation, 2009 (ICRA’09), pp. 3539–3544 (2009)

[73].Lacroix, S., Mallet, A., Chatila, R., Gallo, L.: Rover self localization in planetary-like environments. In: Artificial Intelligence, Robotics and Automation in Space, pp. 440–433 (1999)

[79].Matthies, L.: Error modeling in stereo navigation. IEEE J. Robot. Autom. 3, 239–250 (1987)

[82].Moravec, H.: Obstacle avoidance and navigation in the real world by a seeing robot rover. In: Technical Report. CMU-RI-TR-80-03, Robotics Institute, Carnegie Mellon University & Doctoral Dissertation, Stanford University, CMU-RI-TR-80-03 (1980)

[88].Nistér, D., Naroditsky, O., Bergen, J.: Visual odometry. In: Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2004), vol. 1, pp. I–652 (2004)

[90].Olson, C., Matthies, L., Schoppers, M., Maimone, M.: Rover navigation using stereo ego-motion. Robot. Auton. Syst. 43(4), 215–229 (2003)

[101].Scaramuzza, D., Fraundorfer, F.: Visual odometry: part I—the first 30 years and fundamentals. IEEE Robot. Autom. Mag. 18(4), 80–92 (2011)

[108].Talukder, A., Goldberg, S., Matthies, L., Ansar, A.: Real-time detection of moving objects in a dynamic scene from moving robotic vehicles. In: 2003 IEEE/RSJ International Conference on Intelligent Robots and Systems, 2003 (IROS 2003), Proceedings, vol. 2, pp. 1308–1313 (2003). doi: 10.1109/IROS.2003.1248826

[118].Zhang, T., Liu, X., Kühnlenz, K., Buss, M.: Visual odometry for the autonomous city explorer. In: Proceedings of the 2009 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS’09), pp. 3513–3518. IEEE Press, Piscataway (2009). http://dl.acm.org/citation.cfm?id=1733023.1733309

原文链接

https://link.springer.com/article/10.1007/s40903-015-0032-7

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值