SLAM包含了两个主要的任务:定位与构图,在移动机器人或者自动驾驶中,这是一个十分重要的问题:机器人要精确的移动,就必须要有一个环境的地图,那么要构建环境的地图就需要知道机器人的位置。
本系列文章主要分成四个部分:
在第一部分中,将介绍Lidar SLAM,包括Lidar传感器,开源Lidar SLAM系统,Lidar中的深度学习以及挑战和未来。
第二部分重点介绍了Visual SLAM,包括相机传感器,不同稠密SLAM的开源视觉SLAM系统。
第三部分介绍视觉惯性里程法SLAM,视觉SLAM中的深度学习以及未来。
第四部分中,将介绍激光雷达与视觉的融合。
在1990年,[1]首次提出使用EKF(扩展卡尔曼滤波器)来逐步估计机器人姿态的后验分布以及地标点的位置。实际上,机器人从未知环境的未知位置开始,通过反复观测运动过程中的环境特征来定位自身的位置和姿态,然后根据自身的位姿都建周围环境的增量图,从而达到同时定位和地图构建的目的。
实际上 定位问题是近年来非常复杂且热点的问题。定位技术取决于环境对成本,准确性,定位频率和鲁棒性的需求,这可以通过GPS(全球定位系统),IMU(惯性测量单元)和无线信号等来实现[2]。但是GPS只能在室外工作,IMU系统具有累积误差。无线技术作为一种主动系统,无法在成本和准确性之间取得平衡。随着快速的发展,配备激光雷达,摄像头,IMU和其他传感器的SLAM近年来兴起了。从基于过滤器的SLAM开始,基于图的SLAM现在起着主要作用。该算法从KF(卡尔曼滤波器),EKF和PF&