A Survey of Simultaneous Localization and Mapping with an Envision in 6G Wireless Networks
这是一篇就激光与视觉SLAM、传感器融合、深度学习等现有算法进行总结并提出6G的一些设想的论文。我的关注点是激光,视觉的细节可以自行阅读原文。部分总结成了思维导图,这篇文章可以当做学习SLAM的一个词典,节省了很多查阅文献的时间。深夜整理,如有错误欢迎留言~
摘要:
本文综述了激光雷达SLAM、视觉SLAM及其融合技术。对于Lidar或visual SLAM,本次调查阐述了传感器的基本类型和产品、开源系统的种类和历史、嵌入式深度学习、面临的挑战和未来。此外,还补充了视觉惯性里程计。对于激光雷达和视觉融合SLAM,重点介绍了多传感器标定、硬件、数据、任务层的融合。最后对6G无线网络的开放性问题和前瞻性思考进行了展望。
本文的贡献可以概括为:本文提供了一个高质量、全面的SLAM综述。对于新的研究人员来说,掌握大满贯的发展和学习它是非常友好的。同时,本文也可以作为有经验的研究者寻找新的兴趣方向的词典。
1.introduction
SLAM是同步定位和建图的缩写,它包含定位和建图两个主要任务。这是移动机器人学中一个重要的开放性问题:要精确地移动,移动机器人必须有一个精确的环境地图;然而,要建立一个精确的地图,移动机器人的感知位置必须精确地知道**[1]**。这样,同时建立地图和定位就可以看到一个问题:先是鸡还是蛋?(地图还是运动?)
1990年,文献[2]首次提出使用扩展卡尔曼滤波(EKF)来逐步估计机器人姿态上的后验分布和标志点的位置。事实上,机器人从未知环境的未知位置出发,在运动过程中通过反复观察环境特征来定位自身的位置和姿态,然后根据自身位置建立周围环境的增量地图,从而达到同步定位和地图建设的目的。定位是近年来一个非常复杂和热门的话题。定位技术依赖于环境和对成本、精度、频率和鲁棒性的要求,可以通过GPS(全球定位系统)、IMU(惯性测量单元)和无线信号等来实现。但是GPS只能在户外工作,IMU系统有累积误差**[5]**。无线技术作为一种主动系统,无法在成本和精度之间取得平衡。近年来,随着激光雷达、摄像机、惯性测量单元等传感器的快速发展,SLAM技术应运而生。
从基于滤波器的SLAM开始,基于图的SLAM现在占据了主导地位。算法从KF(Kalman Filter)、EKF和PF(Particle Filter)发展到基于图的优化。单线程已被多线程所取代。随着多传感器的融合,SLAM技术也从最初的军用原型向后来的机器人应用转变。
本文的组织结构概括如下:第二节阐述了包括激光雷达传感器在内的激光雷达SLAM系统、开源激光雷达SLAM系统、激光雷达的深入学习、面临的挑战和未来。第三节重点介绍了视觉SLAM,包括摄像机传感器、不同的开源视觉SLAM系统、视觉惯性里程计SLAM、视觉SLAM的深度学习和未来。在第四节中,我们将展示激光雷达与视觉的融合,并为未来的SLAM研究指明几个方向。第五节说明了结合6G和SLAM的设想。结论见第六节,本文为SLAM的新研究者提供了高质量、全面的用户指南。
2 Lidar SLAM
1991年,[1]使用多个伺服安装的声纳传感器和EKF滤波器为机器人装备了SLAM系统。从声纳传感器开始,激光雷达的诞生使SLAM系统更加可靠和鲁棒性。
A lidar sensor
激光雷达传感器可分为二维激光雷达和