SLAM文献泛读5篇

LIC-Fusion: LiDAR-Inertial-Camera Odometry

主要内容
借鉴LOAM,在MSCKF中加入基于点线/点面距离的激光测量模型,实现紧耦合的激光-惯性-视觉SLAM方案。
亮点
激光-惯性-视觉测量融合的SLAM方案,对剧烈运动和低光照等挑战环境更加鲁棒。
不足
没有关联激光测量和视觉测量。不同传感器模态的测量关联可能有利于进一步提高精度。
参考文章12

摘要

本文提出了一种紧耦合多传感器融合算法,称为LiDAR-inertial-camera fusion(LIC-FUsion)。主要贡献是最优(最多线性误差)的多模态传感器融合方案,有效地将LiDAR检测到的边缘/平面特征点融合到基于**MSCKF的VIO**框架中。此外,本文还实现了在线空间和时间传感器标定。最终,我们进行大量室内和室外实验,展示了LIC-Fusion超过了SOTA VIO和LiDAR里程计方法在估计准确性和对剧烈运动的鲁棒性上。

介绍和相关工作

VIO是跟踪3D运动的流形方法[1-6],但是视觉受光线影响较大(低光照,变化光照)。相反,3D LiDAR能够提供更鲁棒和准确的距离测量,而不受光线影响。本工作中,我们专注激光-惯性-相机里程计。相关工作列举如下:
激光-相机里程计
LIMO [12]:LiDAR用于增强视觉特征的深度通过拟合局部平面,在自动驾驶场景中表现很好。

DEMO [13]:将LiDAR深度和视觉特征关联起来,可以看做LiDAR深度增强的RGBD系统。

V-LOAM [14]:发展了一个组合VO和LO的一般框架,使用高频VO来估计自运动,低频LO匹配地图帧并精修VO估计。

[15]:使用LiDAR的深度在直接视觉SLAM方法中。

激光-惯性-相机
Laser-visual-inertial odometry and mapping [16]: 多层序列处理惯性,相机和激光数据。但是这本质上是一种松耦合融合方法,因为视觉和激光的处理结果传递给激光进行处理,但是而不是直接处理原始的视觉和惯性数据。

本文在计算效率高的多状态约束卡尔曼滤波(MSCKF)框架下,提出了一种快速、紧耦合、单线程的激光-惯性-视觉(LIC)里程计算法,该算法具有在线时空多传感器标定功能。这项工作的主要贡献如下:
1.开发了一种紧密耦合的LIC里程计技术(称为LIC-Fusion),通过在线空间和时间校准实现了高效的6自由度姿态估计 。在MSCKF框架内,所提出的LIC-Fusion有效地结合了IMU测量值、稀疏视觉特征和两种不同的稀疏激光雷达特征(见图1)。明确地建立了标定的外部参数和对测量值的姿态估计两者之间的依赖关系模型,并进行了解析推导。
2. 对所提出的方法进行了大量的实验验证,包括室内和室外环境的真实实验,表明所提出的LIC-Fusion比最先进的方法更准确、更鲁棒。
在这里插入图片描述
图1:LIC-Fusion方法融合了图像中所跟踪的稀疏视觉特征和点云中提取的激光雷达特征。红色和蓝色的激光雷达点分别是边缘和平面特征。估计的轨迹用绿色标记。

结论

在本文中,我们开发了一种紧密耦合的高效多模态传感器融合算法,用于激光-惯性-相机里程计。在MSCKF框架内。在三个传感器之间进行在线时空校准,以补偿校准灵敏度,并简化传感器部署。该方法通过激光雷达扫描检测和跟踪稀疏边缘和平面特征点,并融合这些测量值和从单目图像中提取的视觉特征。因此,通过利用不同的传感模式,所提出的LIC-Fusion能够在不同的环境和主动运动下提供精确和鲁棒的6自由度运动跟踪。在未来,我们将研究如何有效地集成从激光雷达和摄像机获得的环路闭合约束,以约束导航误差。

LIC-Fusion2.0: LiDAR-Inertial-Camera Odometry with Sliding-Window Plane-Feature Tracking

  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值