世界模型立大功!这造假的20多种自动驾驶场景数据太逼真了......

作者 | 量子位  编辑 | 自动驾驶之心

点击下方卡片,关注“自动驾驶之心”公众号

ADAS巨卷干货,即可获取

点击进入→自动驾驶之心【大模型】技术交流群

本文只做学术分享,如有侵权,联系删文

你以为这是个平平无奇的自动驾驶视频?

8e1843a04ba494b92c84ff7d532aaa5e.gif

NO、NO、NO……这其实是完全由AI从头生成的。

没有一帧是“真的”。

f26e6044aec0265ea80e3ffc603f5f03.gif

不同路况、各种天气,20多种情况都能模拟,效果以假乱真。

6c545e3b859f05cf3f9713c65cc07a12.gif

世界模型再次立大功了!这不LeCun看了都激情转发。

d1c8d90a29de2fbb32b74863cf0e6001.png

如上效果,由GAIA-1的最新版本带来。

它规模达90亿参数,用4700小时驾驶视频训练,实现了输入视频、文本或操作生成自动驾驶视频的效果。

带来的最直接好处就是——能更好预测未来事件,20多种场景都能模拟,从而进一步提升了自动驾驶的安全性、还降低了成本。

1aac41b77beda76598431d4af3263165.png

其主创团队直言,这能够改变自动驾驶的游戏规则!

所以GAIA-1是如何实现的?其实前面自动驾驶Daily已经第一时间为大家详细介绍过了自动驾驶公司Wayve团队出品的GAIA-1: A Generative World Model for Autonomous Driving,感兴趣的同学可以去公众号阅读下!

规模越大效果越好

GAIA-1是一个多模态生成式世界模型。

它利用视频、文本和动作作为输入,生成逼真的驾驶场景视频,同时可以对自主车辆的行为以及场景特征进行细粒度控制。

而且可以仅通过文本提示来生成视频

92734678276f3805650c90d47fe020f4.png

其模型原理有点像大语言模型的原理,就是预测下一个token。

模型可以利用向量量化表示将视频帧离散,然后预测未来场景,就转换成了预测序列中的下一个token。然后再利用扩散模型从世界模型的语言空间里生成高质量视频。

具体步骤如下:

447e302968e977cf8e80e7032fe1e982.png

第一步简单理解,就是对各种输入进行重新编码和排列组合。

利用一个专门的编码器对各种输入进行编码,不同输入投射到共用表示里。文本和视频编码器对输入分离、嵌入,操作(action)表示则被单独投射到共用表示里。

这些编码的表示具有时间一致性。

在进行排列之后,关键部分世界模型登场。

作为一个自回归Transformer,它能预测序列中的下一组图像token。而且它不仅考虑了之前的图像token,还要兼顾文本和操作的上下文信息。

这就使得模型生成内容,不仅保持了图像一致性,而且和预测文本、动作也能保持一致。

团队介绍,GAIA-1中的世界模型规模为65亿参数,在64块A100上训练15天而成。

最后再利用视频解码器、视频扩散模型,将这些token转换回视频。

这一步关乎视频的语义质量、图像准确性和时间一致性。

GAIA-1的视频解码器规模达26亿参数规模,利用32台A100训练15天而来。

值得一提的是,GAIA-1不仅和大语言模型原理相似,同时也呈现出了随着模型规模扩大、生成质量提升的特点。

2b9dcbce0c5b75ef9a62d39cfa05df65.png

团队将此前6月发布早期版本和最新效果进行了对比。

后者规模为前者的480倍。

可以直观看到视频在细节、分辨率等方面都有明显提升。

e9325ba09fc60c354e410364a077e6cf.gif

而从实际应用方面出发,GAIA-1也带来了影响,其主创团队表示,这会改变自动驾驶的规则。

6279111e788f4b4f8e331bec5f231e20.png

原因来自三方面:

  • 安全

  • 综合训练数据

  • 长尾场景

首先安全方面,世界模型能够通过模拟未来,让AI有能力意识到自己的决定,这对自动驾驶的安全性来说很关键。

其次,训练数据对于自动驾驶来说也非常关键。生成的数据更加安全、便宜,而且还能无限扩展。

最后,它还能解决目前自动驾驶面临的最大挑战之一——长尾场景。生成式AI可以兼顾更多边缘场景,比如在大雾天气行驶遇到了横穿马路的路人。这能更进一步提升自动驾驶的能力。

Wayve是谁?

GAIA-1来自英国自动驾驶初创公司Wayve

Wayve成立于2017年,投资方有微软等,估值已经达到了独角兽

创始人为现任CEO亚历克斯·肯德尔和艾玛尔·沙(公司官网领导层页已无其信息) ,两人都是来自剑桥大学的机器学习博士。

2765e3b323ccd475ddb37f2525eaa699.jpeg

技术路线上,和特斯拉一样,Wayve主张利用摄像头的纯视觉方案,很早就抛弃高精地图,坚定的走“即时感知”路线。

前不久,该团队发布的另一个大模型LINGO-1也引发轰动。

这个自动驾驶模型能够在行车过程中,实时生成解说,更进一步提高了模型可解释性。

今年3月,比尔·盖茨还曾试乘过过Wayve的自动驾驶汽车。

9a06106dae1555f85d0e8d35a9a58cca.jpeg

论文地址:
https://arxiv.org/abs/2309.17080

参考链接:
[1]https://twitter.com/ylecun/status/1709810114340024400
[2]https://wayve.ai/thinking/scaling-gaia-1/

—  —

① 全网独家视频课程

BEV感知、毫米波雷达视觉融合多传感器标定多传感器融合多模态3D目标检测点云3D目标检测目标跟踪Occupancy、cuda与TensorRT模型部署协同感知语义分割、自动驾驶仿真、传感器部署、决策规划、轨迹预测等多个方向学习视频(扫码即可学习

d59a88b1b83d3cb3eba2e2383324e748.png 视频官网:www.zdjszx.com

② 国内首个自动驾驶学习社区

近2000人的交流社区,涉及30+自动驾驶技术栈学习路线,想要了解更多自动驾驶感知(2D检测、分割、2D/3D车道线、BEV感知、3D目标检测、Occupancy、多传感器融合、多传感器标定、目标跟踪、光流估计)、自动驾驶定位建图(SLAM、高精地图、局部在线地图)、自动驾驶规划控制/轨迹预测等领域技术方案、AI模型部署落地实战、行业动态、岗位发布,欢迎扫描下方二维码,加入自动驾驶之心知识星球,这是一个真正有干货的地方,与领域大佬交流入门、学习、工作、跳槽上的各类难题,日常分享论文+代码+视频,期待交流!

fdbc5fd0f48cff326f8c43b30488e131.png

③【自动驾驶之心】技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦目标检测、语义分割、全景分割、实例分割、关键点检测、车道线、目标跟踪、3D目标检测、BEV感知、多模态感知、Occupancy、多传感器融合、transformer、大模型、点云处理、端到端自动驾驶、SLAM、光流估计、深度估计、轨迹预测、高精地图、NeRF、规划控制、模型部署落地、自动驾驶仿真测试、产品经理、硬件配置、AI求职交流等方向。扫码添加汽车人助理微信邀请入群,备注:学校/公司+方向+昵称(快速入群方式)

172024ab53634d35b61f2618c3181bb7.jpeg

④【自动驾驶之心】平台矩阵,欢迎联系我们!

8f7d15bcecf6187d40e8eaa83f1d4ab6.jpeg

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值