ADriver-I:自动驾驶的一个通用世界模型

作者 | 黄浴  编辑 | 汽车人

原文链接:https://zhuanlan.zhihu.com/p/668364664

点击下方卡片,关注“自动驾驶之心”公众号

ADAS巨卷干货,即可获取

点击进入→自动驾驶之心【世界模型】技术交流群

本文只做学术分享,如有侵权,联系删文

11月22日论文“ADriver-I: A General World Model for Autonomous Driving“,来自旷视科技等的论文。

5d043218c1c8741483eecda33becda66.png

通常,自动驾驶采用模块化设计,将整个堆栈分为感知、预测、规划和控制部分。尽管可以解释,但这种模块化设计往往会引入大量冗余。近年来,多模态大语言模型(MLLM)和扩散模型技术在理解和生成能力方面表现出了优越的性能。在本文中,我们首先引入了交错的视觉-动作对的概念,它统一了视觉特征和控制信号的格式。基于视觉-动作对,构建一个基于MLLM和扩散模型的自动驾驶通用世界模型,称为ADriver-I。它以视觉-动作对为输入,逐步预测当前帧的控制信号。所生成的控制信号与历史的视觉-动作对一起,进一步调节去预测未来帧。利用预测的下一帧,ADriver-I执行进一步的控制信号预测。这样的过程可以无限重复,ADriver-I实现了自我创造世界中的自动驾驶。

如图所示是整个流水线:当前视频帧It和历史视觉-动作对(It−1,At−1)...,(It−3,At−3)用作MLLM和VDM( video latent diffusion model)的输入。在训练过程中,MLLM以自回归的方式输出低级控制信号集{At−2,At−1,At}。它们都受到相应的控制信号的监督。之后,输出控制信号At被进一步用作VDM的提示,预测接下来的四帧{It+1,…,It+4}。预测帧受基本事实的监督。在推断过程中,MLLM单步直接输出当前帧At的控制信号。VDM遵循相同的过程并预测未来帧。对ADriver-I来说,一件重要的事情是它为未来的自动驾驶提供了一种有吸引的可能性。生成的下一帧It+1用作下一时间的“当前帧”,并进一步输入到MLLM产生动作At+1。上述步骤可以循环重复。通过这种方式,它实现了由自己生成世界中的无限驾驶。

1bf2f0085bcedcc5bea85038de19ea4a.png

MLLM由三个模块组成:预训练的大语言模型(LLM)、视觉编码器和视觉适配器。采用Vicuna-7B-1.5[5]作为LLM。Vicuna模型对LLAMA2[53]进行了微调。用CLIP-ViT-Large[44]作为视觉编码器,对大量的图像-文本对进行预训练。采用两个多层感知器(MLP)层作为视觉适配器,通过LLaVA-7B-1.5[31]进行预训练,将视觉特征与语言特征对齐。

基于视频生成的潜扩散模型[47]构建VDM。它建立在SD2.1[46]的基础上,并通过类似于视频潜扩散模型[2]中的时域-觉察模块进行增强。通过集成参考视频控件来丰富具有历史条件功能的模型,该控件将给定的帧与扩散输入连接起来。此外,还保留了文本条件模块,实现动作-导向的未来生成。总之,VDM将控制信号与历史帧集成,作为MLLM的活跃生成器。

将低级控制信号转换为文本,可以作为语言由LLM处理。动作token由语言token化器进一步获得。每个视频帧都由CLIP ViT Large[44]提供特征,并由视觉适配器进行进一步处理,以产生视觉token。每个视频帧的视觉token与对应的动作 token配对形成交错的视觉-动作对。引入的视觉-动作对具有以下优点。(1) 它使多轮对话能够适应不固定的帧长度,提高了MLLM的灵活性。(2) 它统一了单词嵌入空间下的交错未来生成和动作预测。如图所示是一个多模态大语言模型中对话的例子,尽管有视觉和动作token,还引入了系统提示来描述背景,指导MLLM的推理模式。

9cd0408550132c5e1ddacf79464f5093.png

VDM的文本编码器不具有与LLM相同的推理能力。当转向角值小于0时,它很难理解车辆的右转,而当转向角大于0时,则很难理解汽车的左转。为了解决这个问题,用GPT3.5[36]将低级控制信号转换为运动描述。如图所示是一个GPT3.5引导生成运动提示的对话例子,来自连续帧的控制信号用作输入。为了生成清晰的运动提示,引导它输出常见的驾驶状态,如稳定速度、加速、减速和转弯。以运动提示为条件,VDM用于预测未来帧。

e6730280d33c7c390c86e341a577fa8a.png

① 全网独家视频课程

BEV感知、毫米波雷达视觉融合多传感器标定多传感器融合多模态3D目标检测点云3D目标检测目标跟踪Occupancy、cuda与TensorRT模型部署协同感知语义分割、自动驾驶仿真、传感器部署、决策规划、轨迹预测等多个方向学习视频(扫码即可学习

7306c2291e28f494433f9ce06f9a5743.png 视频官网:www.zdjszx.com

② 国内首个自动驾驶学习社区

近2000人的交流社区,涉及30+自动驾驶技术栈学习路线,想要了解更多自动驾驶感知(2D检测、分割、2D/3D车道线、BEV感知、3D目标检测、Occupancy、多传感器融合、多传感器标定、目标跟踪、光流估计)、自动驾驶定位建图(SLAM、高精地图、局部在线地图)、自动驾驶规划控制/轨迹预测等领域技术方案、AI模型部署落地实战、行业动态、岗位发布,欢迎扫描下方二维码,加入自动驾驶之心知识星球,这是一个真正有干货的地方,与领域大佬交流入门、学习、工作、跳槽上的各类难题,日常分享论文+代码+视频,期待交流!

e8dd63213fde980ee4a509c8aaf0b9d2.png

③【自动驾驶之心】技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦目标检测、语义分割、全景分割、实例分割、关键点检测、车道线、目标跟踪、3D目标检测、BEV感知、多模态感知、Occupancy、多传感器融合、transformer、大模型、点云处理、端到端自动驾驶、SLAM、光流估计、深度估计、轨迹预测、高精地图、NeRF、规划控制、模型部署落地、自动驾驶仿真测试、产品经理、硬件配置、AI求职交流等方向。扫码添加汽车人助理微信邀请入群,备注:学校/公司+方向+昵称(快速入群方式)

082b03e36b857708194c1342ee74be09.jpeg

④【自动驾驶之心】平台矩阵,欢迎联系我们!

b15d468fdc4d4ca341622c18cd92764d.jpeg

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值