论文信息
题目:
Visual-Inertial Multi-Instance Dynamic SLAM with Object-level Relocalisation
基于目标级重定位的视觉惯性多示例动态SLAM
论文地址:
https://arxiv.org/pdf/2208.04274.pdf
发表期刊:
2022 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)
标签
IMU、RGB=D紧耦合、稠密建图、语义分割、动态物体跟踪
摘要
本文提出一种紧耦合的视觉惯性对象级多实例动态SLAM系统。即使在极其动态的场景中,它也可以鲁棒地优化相机姿态、速度、IMU偏差,并建立一个密集的3D重建环境的物体级地图。通过将相关的颜色、深度、语义和前景目标概率增量融合到每个目标模型中,该系统可以鲁棒地跟踪和重建任意目标的几何形状、语义和运动,这得益于其鲁棒的传感器和目标跟踪。此外,当物体丢失或移动到摄像机视野之外时,系统可以可靠地在重新观察时恢复其位姿。通过在真实世界的数据序列中定量和定性地测试,证明了所提出方法的鲁棒性和准确性。
内容简介
本文旨在提高目标级动态SLAM系统的鲁棒性。为了在高度动态环境中鲁棒地估计相机姿态,通过联合估计相机姿态、速度和IMU偏差,以紧耦合的方式集成来自惯性测量单元(IMU)和RGB-D传感器的读数。即使在高度动态的场景中,它也能提供可靠的相机姿态估计,同时保持重力方向可观测,这对于创建有意义的对象级地图很重要.
本文的主要贡献包括三个部分:这是第一个紧耦合稠密rgb - d惯性物体级多实例动态SLAM系统;提出了一种物体重定位方法,以恢复在相机视图中消失和重新出现的运动物体;
本文提出了一种新的系统,执行视觉惯性密集SLAM,能够处理环境中的多个动态物体。我们的系统有三个主要优点。首先,与传统的纯视觉密集SLAM相比,IMU的集成增加了跟踪的额外鲁棒性,特别是在动态环境中。其次,该系统能够减轻Mask R-CNN间歇性目标检测的影响,因为系统可以后退到从对象级地图获得的渲染掩码,以连续跟踪环境中的目标。
VI-MID系统建立在基于八叉树的对象级多实例动态SLAM系统MID-Fusion[8]的基础上。它由四个主要部分组成:跟踪,分割,融合和光线投射。在跟踪部分,通过联合优化光度残差、几何残差和IMU残差来估计相机位姿。在系统运行过程中,检测并跟踪环境中的动态对象,并利用光度和几何残差修正其姿态。最后,融合部分和光线投射部分与中融合[8]相同。