动态SLAM论文(8) — DynaSLAM II: Tightly-Coupled Multi-Object Tracking and SLAM

DynaSLAM II是一种开源的立体和RGB-D SLAM系统,能同时估计相机姿态、地图结构及动态物体的轨迹。该系统紧密集成多目标跟踪,利用实例语义分割和ORB特征,优化场景结构、相机轨迹和物体轨迹。在复杂的动态环境中,DynaSLAM II展示了强大的性能,特别是在自动驾驶、多机器人协作和AR/VR场景中。系统通过束调整优化,估计物体3D边界框,并对物体运动进行松散优化,提高了场景理解和相机跟踪的准确性。
摘要由CSDN通过智能技术生成

目录

1 Introduction

2 Related Work

3 Method

A. 符号表示

B. 物体数据关联

C. 以对象为中心的表示

D. 对象束调整

E. 边界框

4 Experiments

A. 视觉里程计

 B. 多目标跟踪

C. 时间分析

5 结论和未来工作


摘要 —— 在视觉SLAM算法中,假设场景是刚性的是常见的。然而,这限制了它们在真实环境中的适用性。此外,大多数情况,包括自动驾驶、多机器人协作和增强/虚拟现实,都需要明确的周围运动信息来帮助决策和场景理解。本文介绍了一种名为DynaSLAM II的视觉SLAM系统,用于立体和RGB-D配置,并紧密集成了多目标跟踪能力。 DynaSLAM II利用实例语义分割和ORB特征来跟踪动态物体。静态场景的结构和动态物体的结构与摄像机和移动主体的轨迹一起在新颖的束调整提议中进行优化。还估计了物体的3D边界框,并在固定的时间窗口内进行了松散的优化。我们证明,跟踪动态物体不仅提供了丰富的场景理解线索,而且对于相机跟踪也是有益的。 项目代码将在被接受后发布。

索引术语 —— SLAM、语义、跟踪、动态物体

1 Introduction

        SLAM是指仅根据机器人的机载摄像头数据流,在未知环境中创建地图并估计机器人姿态的问题。大多数SLAM方法假设场景是静态的,并且只能通过将其标记为静态模型的异常值来处理小部分动态内容[1]–[3]。虽然静态前提在某些机器人应用中成立,但在自动驾驶、服务机器人或AR/VR等人群聚集环境中使用受限。

       

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

几度春风里

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值