目录
摘要 —— 在视觉SLAM算法中,假设场景是刚性的是常见的。然而,这限制了它们在真实环境中的适用性。此外,大多数情况,包括自动驾驶、多机器人协作和增强/虚拟现实,都需要明确的周围运动信息来帮助决策和场景理解。本文介绍了一种名为DynaSLAM II的视觉SLAM系统,用于立体和RGB-D配置,并紧密集成了多目标跟踪能力。 DynaSLAM II利用实例语义分割和ORB特征来跟踪动态物体。静态场景的结构和动态物体的结构与摄像机和移动主体的轨迹一起在新颖的束调整提议中进行优化。还估计了物体的3D边界框,并在固定的时间窗口内进行了松散的优化。我们证明,跟踪动态物体不仅提供了丰富的场景理解线索,而且对于相机跟踪也是有益的。 项目代码将在被接受后发布。
索引术语 —— SLAM、语义、跟踪、动态物体
1 Introduction
SLAM是指仅根据机器人的机载摄像头数据流,在未知环境中创建地图并估计机器人姿态的问题。大多数SLAM方法假设场景是静态的,并且只能通过将其标记为静态模型的异常值来处理小部分动态内容[1]–[3]。虽然静态前提在某些机器人应用中成立,但在自动驾驶、服务机器人或AR/VR等人群聚集环境中使用受限。