SLAM包含了两个主要的任务:定位与构图,在移动机器人或者自动驾驶中,这是一个十分重要的问题:机器人要精确的移动,就必须要有一个环境的地图,那么要构建环境的地图就需要知道机器人的位置。
本系列文章主要分成四个部分:
在第一部分中,将介绍Lidar SLAM,包括Lidar传感器,开源Lidar SLAM系统,Lidar中的深度学习以及挑战和未来。
第二部分重点介绍了Visual SLAM,包括相机传感器,不同稠密SLAM的开源视觉SLAM系统。
第三部分介绍视觉惯性里程法SLAM,视觉SLAM中的深度学习以及未来。
第四部分中,将介绍激光雷达与视觉的融合。
摘要
随着CPU和GPU的发展,图形处理能力变得越来越强大。相机传感器同时变得更便宜,更轻巧,功能更广泛。在过去的十年中,视觉SLAM迅速发展。与Lidar系统相比,使用相机的Visual SLAM还使该系统更便宜,更小。如今SLAM可视化系统可以在微型PC和嵌入式设备中运行,甚至可以在智能手机[1],[2]等移动设备中运行。
视觉SLAM通常包含了传感器数据的处理,包括了摄像机或惯性测量单元,前端的视觉里程计或视觉惯导融合的里程计,后端的优化,后端的闭环以及构建地图[3]。并且重定位是稳