2019年SLAM综述

摘要
slam是同步定位和建图的缩写,它包含定位和建图两个主要任务。这是移动机器人学中一个重要的开放性问题:要精确地移动,移动机器人必须有一个精确的环境地图;然而,要建立一个精确的地图,移动机器人的感知位置必须精确地知道[1]。这样,同时建立地图和定位就可以看到一个问题:先是鸡还是蛋?(地图还是运动?)1990年,首次提出使用扩展卡尔曼滤波(ekf)来逐步估计机器人姿态上的后验分布和标志点的位置。事实上,机器人从未知环境的未知位置出发,在运动过程中通过反复观察环境特征来定位自身的位置和姿态,然后根据自身位置建立周围环境的增量地图,从而达到同步定位和地图建设的目的。定位是近年来一个非常复杂和热门的话题。定位技术依赖于环境和对成本、精度、频率和鲁棒性的要求,可以通过GPS(全球定位系统)、imu(惯性测量单元)和无线信号等来实现。但是gps只能在户外工作,imu系统有累积误差[5]。无线技术作为一种主动系统,无法在成本和精度之间取得平衡。近年来,随着激光雷达、摄像机、惯性测量单元等传感器的快速发展,slam技术应运而生。

从基于滤波器的slam开始,基于图的slam现在占据了主导地位。算法从kf(kalman filter)、ekf和pf(particle filter)发展到基于图的优化。单线程已被多线程所取代。随着多传感器的融合,slam技术也从最初的军用原型向后来的机器人应用转变。

本文的组织结构概括如下:第二节阐述了包括激光雷达传感器在内的激光雷达slam系统、开源激光雷达slam系统、激光雷达的深入学习、面临的挑战和未来。

第三章重点介绍了视觉slam,包括摄像机传感器、不同密度的开源视觉slam系统、视觉惯性里程测量slam、视觉slam的深度学习和未来。在第四节中,将演示激光雷达和视觉的融合。最后,本文指出了slam未来研究的几个方向,为slam的新研究者提供了高质量、全方位的用户指南。

II 激光SLAM
A 激光雷达传感器
Velodyne
SLAMTEC
Ouster
Quanergy
Ibeo
其他sick, Hokuyo, HESAI, RoboSense, LeddarTech, ISureStar, benewake, Livox, Innovusion, Innoviz, Trimble, Leishen Intelligent System
B 激光雷达SLAM系统
1)2D SLAM

Gmapping
HectorSlam
KartoSLAM
LagoSLAM
CoreSLAm
Cartographer
2)3D SLAM
LOAM
Lego-Loam
Cartographer
IMLS-SLAM
3)激光SLAM的深度学习
特征提取:PointNetVLAD, VoxelNet,BirdNet , LMNet,OPIXOR,Yolo3D,PointCNN,MV3D
识别和分割:PointNet,Point-Net++,VoteNet,SegMap,SqueezeSeg,PointSIFT,PointWise,3P-RNN,SPG,SegMatch,Kd-Network,DeepTemporalSeg,PointRCNN
定位:L3-Net,SuMa++
C 未来与挑战
1)费用和适应性
2)低纹理和动态环境
3)其他传感器的干扰
III 视觉SLAM
A 视觉传感器
类型

单目
双目
RGB-D
事件相机
公司

微软
英特尔
ZED
MYNTAI
Occipital Structure
Samsung
其他:Leap Motion, Orbbec Astra, Pico Zense, DUO, Xtion,Camboard, IMI, Humanplus, PERCIPIO.XYZ, PrimeSense
B 视觉SLAM系统
1)稀疏视觉SLAM

MonoSLAM
PTAM
ORB-SLAM
proSLAM
ENFT-sfm
OpenVSLAm
TagSLAM
UcoSLAM
2) 半稠密SLAM
LSD-SLAM
SVO
DSO
EVO
3)稠密SLAM
DRAM
MLM SLAM
Kinect Fusion
DVO
RGBG-SLAM-V2
Kintinuous
RTAB-MAP
Dynamic Fusion
Elastic Fusion
InfiniTAM
Bundle Fusion
其他:SLAMRecon, RKD-SLAM ,RGB-D SLAM ,Maplab , PointNVSNet , MID-Fusion,MaskFusion
4)视觉惯性里程计SLAM
SSF
MSCKF
ROVIO
OKVIS
VINS
ICE-BA
Maplab
VI-ORB
StructVIO
RKSLAM
5)基于深度学习的视觉SLAM
特征提取:
SuperPoint
GCN-SLAM
SalientDSO
CubeSLAM
MonoGRNet
识别与分割:
SLAM++
Semanticfusion
MarrNet
3DMV
Pix3D
ScanComplete
Fusion++
Mask-RCNN
SegMap
3D-SIS
DA-RNN
DenseFusion
CCNet
尺度恢复:
DeepVO
GS3D
UnDeepVO
GeoNet
CodeSLAM
GEN-SLAM
Deep-MVS
位姿输出与优化
PoseNet
VINet
DeepVO
SFM-Net
VSO
MID-Fusion
VidLoc
长期定位:
X-View
基于事件相机的长期定位
动态SLAM:
RDSLAM
DS-SLAM
MaskFusion
Co-Fusion
Detect-SALAM
DynaSLAM
StaticFusion
RGB-D SLAM
C 挑战与未来
1)鲁棒性与便携性
2)多传感器融合
3)语义SLAM

IV 激光视觉SLAM系统
A 多传感器标定
相机与IMU:

Kalibr
Vins-Fusion
MSCKF-VIO
IMU-TK
相机与深度:
BAD SLAM
雷达与IMU:
LIO-mapping
Lidar-Align
相机与雷达
Lidar-Camera
RegNet
LIMO
CalibNet
Autoware
B 激光与视觉融合
1)硬件层:

Pandora公司
2)数据层
DFuseNet
3)任务层
V-Loam
VI-SLAM
VIL-SLAM
PointFusion
RoarNet
AVOD
MV3D
FuseNet
C 挑战与未来
1)数据关联
2)硬件集成
3)高精度地图
4)鲁棒性与可扩展
5)抵御风险和约束的能力
6)在UAV,VR/AR/MR
7)端到端的深度学习SLAM会是未来吗?
————————————————
版权声明:本文为CSDN博主「南山二毛」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_16481211/article/details/102735616

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值