【Motion Forecasting】【摘要阅读】MacFormer:Map-Agent Coupled Transformer

MacFormer: Map-Agent Coupled Transformer for Real-time and Robust Trajectory Prediction

这项工作发布于2023年的IEEE Robotics And Automation Letters,来自于中山大学。

Abstract

对代理的未来运动进行预测是自动驾驶领域的一项重要任务。准确地代理未来轨迹预测依赖于对周围地图环境的全面理解,它对代理的运动有着强大的约束作用。然而,现有的方法对地图信息的使用是不充分的,而过度依赖于代理的历史运动信息,使得未来轨迹的预测结果精度较差并且缺少鲁棒性。此外,现有方法大多使用了较为繁重的网络设计,使得模型在真实场景当中的部署难以满足实时性要求。
在这里插入图片描述
为了解决上述问题,本文提出了Map-Agent Coupled Transformer(MacFormer,地图-代理耦合的Transformer),来进行实时且鲁棒的未来轨迹预测。本文提出的框架显式地通过两个精心设计的模块来将地图约束融入到网络当中,分别是耦合地图(coupled map)和参考帧提取器(reference extractor)。本文方法还使用了一种新颖的多任务优化策略来提高模型对道路拓扑以及规则约束的学习。本文方法还在上下文信息融合阶段设计了一种双向问询机制(bilateral query scheme),确保本文提出的方法是高效且轻量的。
在这里插入图片描述
本文方法在Argoverse 1、Argoverse 2以及nuScenes数据集上进行了实验,实验结果表明,本文方法可以在上述数据集上取得SOTA水准的结果,并且该方法的推理时延和模型参数量都更低。

实验结果还表明本文提出的框架对于较差的输入仍具有鲁棒性。

此外,作者还表明,通过将本文方法与现有方法相结合,现有方法的精度同样得到了提高,进一步证明了本文方法的有效性。

【从摘要看下来,MacFormer同样是一项关注于地图信息充分使用的工作,它显式地将地图信息与代理的历史运动轨迹进行了耦合。值得关注的是,MacFormer在Argoverse 1/2以及nuScenes三项大规模轨迹预测数据集上取得了SOTA水准的结果,这是相当不容易的,但是从文章的整体阅读来说,MacFormer设计了coupled map、reference extractor、MTOS以及bilateral query scheme等多种创新,而缺少一个能够使模型预测精度发生质变的高度总结】

Conclusion

本文提出了一种实时性好且鲁棒的轨迹预测框架,它可以高效地将地图约束与模型相结合。

本文方法直接将地图信息与代理历史运动轨迹相融合,并使用与地图相关的参考帧对代理的未来轨迹进行预测,上述两项任务分别使用耦合地图(coupled map)和参考帧提取器(reference extractor)来完成。

为了提高地图约束的学习效率,本文方法提出了一种多任务优化策略(MTOS)。同时,本文方法设计了一种双向查询机制来增强上下文特征融合的效率。

实验结果表明,MacFormer在Argoverse 1和2数据集以及nuScenes数据集上取得了SOTA水准的结果。

MacFormer的推理速度较低,模型参数量较少,适用于真实场景的部署。实验结果同样证明本文框架具有较强的鲁棒性。

  • 25
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting是一篇2021年发表在AAAI会议上的论文,它提出了一种名为Informer的方法,用于解决长时间序列预测的问题。\[2\]这篇论文的目标是在长时间序列预测中提高预测能力并提高效率。传统的Transformer方法在长时间序列预测上存在一些局限性,而Informer通过引入一些新的机制来克服这些局限性。\[3\]具体来说,Informer采用了一种多层次的注意力机制,以便更好地捕捉长时间序列中的依赖关系,并引入了一种自适应长度的编码器和解码器,以提高对长序列的建模能力。通过这些改进,Informer在长时间序列预测任务上取得了更好的效果。 #### 引用[.reference_title] - *1* *3* [Informer: Beyond Efficient Transformer for Long SequenceTime-Series Forecasting](https://blog.csdn.net/lwera/article/details/127389652)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [Informer:超越Transformer的长时间序列预测模型](https://blog.csdn.net/zuiyishihefang/article/details/123437169)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值