下面来介绍一下深度学习的视觉SLAM综述,具体如下:
同时定位与地图构建(SLAM)是机器人搭载视觉、激光、里程计等传感器,对未知环境构建地图的同时实现自定位的过程,在机器人自主导航任务中起着关键作用。当前SLAM问题的研究手段主要是通过在机器人本体上安装多类型传感器来估计机器人本体运动信息和未知环境的特征信息,利用信息融合实现对机器人位姿的精确估计以及场景的空间建模。尽管SLAM采用的传感器有激光和视觉等多种类型,但其处理过程一般包含2个部分。前端帧间估计和后端优化。前端帧间估计解决的是机器人在获取前后2帧传感器信息的时间间隔内的运动估计,而后端优化解决的是机器人检测到路径闭环后对历史轨迹的优化问题。考虑到里程计等传感器信息积累的误差,后端优化就变得尤为重要,其关键是正确的检测闭环。相对于激光传感器单一的空间结构感知信息,视觉传感器凭借其丰富的色彩和纹理等感知信息在提高帧间估计精度和闭环检测正确率方面有着巨大的优势和潜力。
视觉SLAM(visual SLAM)是以图像作为主要环境感知信息源的SLAM系统,可应用于无人驾驶、增强现实等应用领域,是近年来的热门研究方向。典型视觉SLAM算法以估计摄像机位姿为主要目标,通过多视几何理论来重构3D地图。为提高数据处理速度,部分视觉SLAM算法首先提取稀疏的图像特征,通过特征点之间的匹配实现帧间估计和闭环检测,如基于SIFT(scale-
invariant feature transform)特征的视觉SLAM和基于ORB(oriented FAST and rotated BRIEF)特征的视觉SLAM。SIFT和ORB特征凭借其较好的鲁棒性和较优的区分能力以及快速的处理速度,在视觉SLAM领域受到广泛应用。但是,人工设计的稀疏图像特征当前有很多局限性,一方面如何设计稀疏图像特征最优地表示图像信息依