顶刊TIV | 用于自动驾驶赛车的多模态传感器融合和目标跟踪

点击下方卡片,关注“自动驾驶之心”公众号

ADAS巨卷干货,即可获取

>>点击进入→自动驾驶之心【目标跟踪】技术交流群

论文作者 | 汽车人

编辑 | 自动驾驶之心

原标题:Multi-Modal Sensor Fusion and Object Tracking for Autonomous Racing

论文链接:https://arxiv.org/pdf/2310.08114.pdf

代码链接:https://github.com/TUMFTM/FusionTracking

作者单位:慕尼黑工业大学

期刊:IEEE TRANSACTIONS ON INTELLIGENT VEHICLES

20a6094d87353ada311b29f86c4af37e.png

论文思路:

对周围目标的可靠检测和跟踪是自动驾驶车辆综合运动预测和规划必不可少的。由于单个传感器的局限性,需要多传感器模态融合来提高整体检测能力。此外,鲁棒运动跟踪对于降低传感器噪声的影响,提高状态估计精度至关重要。自动驾驶汽车软件的可靠性在复杂、竞争激烈的高速场景下变得更加重要。本文提出了一种适用于高速应用的模块化多模态传感器融合与跟踪方法。该方法基于扩展卡尔曼滤波器(Extended Kalman Filter) (EKF),能够融合异构检测输入来一致地跟踪周围物体。一种新颖的延迟补偿方法能够减少感知软件延迟的影响,并输出一个更新的目标列表。这是第一个在Indy Autonomous Challenge 2021和CES (AC@CES) 2022的高速现实场景中验证的融合和跟踪方法,证明了它在嵌入式系统上的鲁棒性和计算效率。它不需要任何标记数据,实现0.1 m以下的位置跟踪残差(residuals)。

主要贡献:

一种用于多模态异构检测的模块化后期融合方法

一种通过运动学前后积分(kinematic backward-forward integration)进行延迟补偿的感知软件。

跟踪算法在完整的自动驾驶软件中的实际应用中得到验证,用于速度高达 270 的自动驾驶赛车 [4]、[5]。

网络设计:

基于这些问题,将本文的问题表述如下:本文希望提供一种鲁棒的融合和跟踪方法,该方法能够可靠地处理多种异构传感器模态,并一致且准确地跟踪周围物体的运动。该方法应在现实世界中适用于高速自动驾驶的软件堆栈,这需要低延迟并考虑感知软件延迟。此外,无需标注数据即可适用。本文解决这个问题的后期融合和目标跟踪方法的构建如下。多模态后期融合可以处理来自多个异构检测 pipeline 的输入。原始输入会被过滤以查找偏离轨道的目标以及每个目标的多次检测。然后,基于距离的匹配将过滤后的目标列表与当前跟踪的目标按时间顺序关联起来。如果匹配成功,则将扩展卡尔曼滤波器 (EKF) 应用于运动模型以进行状态估计。该方法的一个重要特征是延迟补偿:由于检测输入的延迟,在观测存储中应用向后搜索来获取传感器时间戳处的跟踪目标。然后,历史状态的优化状态估计与运动学模型前向集成,以将所有存储 entries 更新到当前时间戳。通过这种方式,运动预测和自我运动规划接收周围目标的更新、优化的轨迹。图 1 显示了 2022 年 CES (AC@CES) 自动驾驶挑战赛上记录的所提出方法的典型场景,包括脱轨滤波器(黑色)、延迟感知(橙色虚线)和补偿优化状态估计(橙色立方体)。

52c57da72000862167327d8391c10a88.png

图 1. AC@CES 2022 上提出的多模态目标融合和跟踪方法的真实场景(行驶方向:左)。

5740fd64c87755b69263eef542cb1e18.png

图2.多模态传感器融合和目标跟踪方法的接口(黑色)和结构。

4429ecb3b7cbd318e227275be17dae29.png

图 3. AC@CES 2022 上的示例高速现实场景。ego 速度为 255 ,物体速度为 233 。

5e0a4680e5acc8d963c803867d3b71aa.png

图 4. LiDAR(蓝色)和 RADAR(橙色)检测输入数据的数据分析。

实验结果:

bce7289772ac8f3220a3646d2bf2bce6.png

图 5. 从传感器时间戳到 LiDAR(蓝色)和 RADAR(橙色)跟踪 subscription 的延迟分布(以毫秒为单位)(左)和移动距离(以米为单位)(右)。

5be22679e4e02c462b586243429eccf7.png

图 6. 融合系统(黑色)、LiDAR(蓝色)和 RADAR(橙色)检测输入在不同观测时间的残差(Residual error)。

70674bb1d7b60e3caeadce6cee95d8d7.png

引用:

Karle, P., Fent, F., Huch, S., Sauerbeck, F., & Lienkamp, M. (2023). Multi-Modal Sensor Fusion and Object Tracking for Autonomous Racing. ArXiv. https://doi.org/10.1109/TIV.2023.3271624

① 全网独家视频课程

BEV感知、毫米波雷达视觉融合多传感器标定多传感器融合多模态3D目标检测点云3D目标检测目标跟踪Occupancy、cuda与TensorRT模型部署协同感知语义分割、自动驾驶仿真、传感器部署、决策规划、轨迹预测等多个方向学习视频(扫码即可学习

fd2d5294f778c3f6a8ae319141e3570c.png 视频官网:www.zdjszx.com

② 国内首个自动驾驶学习社区

近2000人的交流社区,涉及30+自动驾驶技术栈学习路线,想要了解更多自动驾驶感知(2D检测、分割、2D/3D车道线、BEV感知、3D目标检测、Occupancy、多传感器融合、多传感器标定、目标跟踪、光流估计)、自动驾驶定位建图(SLAM、高精地图、局部在线地图)、自动驾驶规划控制/轨迹预测等领域技术方案、AI模型部署落地实战、行业动态、岗位发布,欢迎扫描下方二维码,加入自动驾驶之心知识星球,这是一个真正有干货的地方,与领域大佬交流入门、学习、工作、跳槽上的各类难题,日常分享论文+代码+视频,期待交流!

ec7acfabce809935310da2eff87a92e6.png

③【自动驾驶之心】技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦目标检测、语义分割、全景分割、实例分割、关键点检测、车道线、目标跟踪、3D目标检测、BEV感知、多模态感知、Occupancy、多传感器融合、transformer、大模型、点云处理、端到端自动驾驶、SLAM、光流估计、深度估计、轨迹预测、高精地图、NeRF、规划控制、模型部署落地、自动驾驶仿真测试、产品经理、硬件配置、AI求职交流等方向。扫码添加汽车人助理微信邀请入群,备注:学校/公司+方向+昵称(快速入群方式)

0bf0f825225fb3d431d5f198f6dbe26a.jpeg

④【自动驾驶之心】平台矩阵,欢迎联系我们!

a8abb51197f9472a64f0ceef68c9c3eb.jpeg

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值