ORB-SLAM2的编译运行以及TUM数据集测试
近段时间一直在学习高翔博士的《视觉SLAM十四讲》,学了以后发现自己欠缺的东西实在太多,好多都需要深入系统的学习。ORB-SLAM2是一套完整的SLAM方案,提供了单目,双目和RGB-D三种接口。它能够实现地图重用,回环检测和重新定位的功能。无论是在室内的小型手持设备,还是到工厂环境的无人机和城市里驾驶的汽车,ORB-SLAM2都能够在标准的CPU上进行实时工作。ORB-SLAM2在后端上采用的是基于单目和双目的光束法平差优化(BA)的方式,这个方法允许米制比例尺的轨迹精确度评估。此外,ORB-SLAM2包含一个轻量级的定位模式,该模式能够在允许零点漂移的条件下,利用视觉里程计来追踪未建图的区域并且匹配特征点。 可以说,ORB_SLAM2是近几年SLAM的集大成者,它吸收了近几年monoslam领域的很多理论成果,比如逆深度的使用,g2o工具箱的优化等。而且以orb特征贯穿始终,从一开始的特征处理,匹配,以及用于回环的bag-of-words,词典,全用的是orb。缺点在于它的的建图部分只含有稀疏的map point,这不仅让最终建的图很难看,而且对于机器人下一步的应用会造成很大困难。
文章主要对ORB-SLAM2进行编译运行。以及下载TUM上的数据集。然后跑自己的数据集,以及利用笔记本摄像头进行测试。
前期准备
链接在此:https://github.com/raulmur/ORB_SLAM2
使用git clone https://github.com/raulmur/ORB_SLAM2 下载ORB-SLAM2 根据Gthub上给的依赖项 进行安装
系统环境:
ubuntu 16.04 LTS 安装好gcc g++ cmake git (这里就不细说了)
安装依赖库
(1)安装Pangolin
git clone https://github.com/stevenlovegrove/Pangoli