ORB-SLAM3论文(一)

ORB-SLAM3(一)

ORB-SLAM3:精确的开源视觉、视觉惯导融合以及多地图SLAM

论文链接:https://arxiv.org/abs/2007.11898

代码链接:

(gitte转载下载较快,760M就很过分!!):https://gitee.com/ustbcxk/ORB_SLAM3

(原始链接):https://github.com/UZ-SLAMLab/ORB_SLAM3

本人编译时没有遇到太多问题,所以在此引用知乎一位朋友的避坑指南(小秋SLAM笔记的编译踩坑文): https://www.zhihu.com/question/408916240/answer/1361086876。

文章摘要:本文介绍了ORB-SLAM3,这是第一个能够用单目、立体和RGB-D相机,使用针孔和鱼眼镜头模型进行视觉、视觉惯性和多地图SLAM的系统。第一个主要的创新是一个基于特征的紧密集成视觉惯性SLAM系统,它完全依赖于最大后验概率(MAP)估计,甚至在IMU初始化阶段也是如此。其结果是一个系统,在小型和大型,室内和室外环境中都能稳定地运行,并且比以前的方法精确2到5倍。第二个主要的创新是一个多地图系统,它依赖于一种新的位置识别方法和改进的召回。多亏了它,ORB-SLAM3能够在长时间的不良视觉信息下生存:当它丢失时,它会启动一个新的地图,当重新访问地图区域时,它将与以前的地图无缝地合并。与只使用最后几秒信息的视觉里程计系统相比,ORB-SLAM3是第一个能够在所有算法阶段重用所有先前信息的系统。这允许包含束内调整共可见关键帧,这些关键帧提供了高视差观测,提高了精度,即使它们在时间上相隔甚远,或者它们来自以前的映射会话。我们的实验表明,在所有的传感器配置中,ORBSLAM3与文献中可用的最佳系统一样健壮,并且更精确。值得注意的是,我们的立体惯性SLAM在EuRoC无人机上的平均精度为3.6cm,在TUM-VI数据集(AR/VR场景的一个典型设置)中,快速手持移动时的平均精度为9mm。为了社区的利益,我们公开源代码。

一、关于ORB-SLAM3

相对于ORB-SLAM2以及ORB-SLAM-VI,其最大的亮点有:1、基于特征的紧密集成视觉惯性SLAM系统(将极大后验概率估计MAP用于IMU初始化等);2、多地图SLAM系统(新的位置识别方法);

1、在IMU初始化阶段引入MAP思想,提高了初始化速度,并且极大提高了鲁棒性,精确度提升明显。

2、多子地图系统大大提高了系统召回率,ORBSLAM3在视觉信息缺乏甚至丢失时具有更高的鲁棒性。当跟丢目标时将会重建一个子地图,并在回环loop closing过程中与之前的非活动地图合并。故ORB-SLAM3是第一个可以重用历史所有算法得到的信息的系统,也就以为着之前的共视关键帧也可以用来一起BA(无论是地图集里活动地图还是非活动地图的共视关键帧)。

二、ORBSLAM3框架

整体框架以ORB-SLAM2为基础,进行了改进,图1为ORB-SLAM2框架,图2为ORB-SLAM3框架:

img

​ 图1 ORB-SLAM2框架图

ORB-SLAM3框架

​ 图2 ORB-SLAM3框架图

从框架图中也可以看出,ORB-SLAM3最突出的两点是IMU融合、地图集(map atlas)以及地图融合(map merging)。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值