UniPAD:自动驾驶通用预训练范式来了!

点击下方卡片,关注“自动驾驶之心”公众号

ADAS巨卷干货,即可获取

>>点击进入→自动驾驶之心【端到端自动驾驶】技术交流群

论文作者 | 汽车人

编辑 | 自动驾驶之心

UNIPAD:自动驾驶通用预训练范式

原标题:UNIPAD: A UNIVERSAL PRE-TRAINING PARADIGM FOR AUTONOMOUS DRIVING

论文链接:https://arxiv.org/pdf/2310.08370.pdf

代码链接:https://github.com/Nightmare-n/UniPAD

作者单位:上海人工智能实验室 浙江大学 香港大学 中国科学技术大学 悉尼大学 Zhejiang Lab

f78e602dd0a99a3c3e2ca76d6ed64742.png

论文思路:

在自动驾驶的背景下,有效特征学习的重要性得到了广泛认可。虽然传统的 3D 自监督预训练方法已经取得了广泛的成功,但大多数方法都遵循最初为 2D 图像设计的想法。本文提出了 UniPAD,一种应用 3D 体积可微渲染(3D volumetric differentiable rendering)的新型自监督学习范式。UniPAD 隐式编码 3D 空间,有助于重建连续的 3D 形状结构及其 2D 投影的复杂外观特征。本文方法的灵活性使得能够无缝集成到 2D 和 3D 框架中,从而能够更全面地理解场景。本文通过对各种下游 3D 任务进行广泛的实验来证明 UniPAD 的可行性和有效性。本文的方法将基于激光雷达、摄像机和激光雷达-摄像机的基线分别显着提高了 9.1、7.7 和 6.9 NDS。值得注意的是,本文的预训练 pipeline 在 nuScenes 验证集上实现了 3D 目标检测的 73.2 NDS 和 3D 语义分割的 79.4 mIoU,与之前的方法相比,实现了最先进的结果。

主要贡献:

据本文所知,本文是第一个探索一种新颖的 3D 可微渲染(3D differentiable rendering)方法,用于自动驾驶背景下的自监督学习。

该方法的灵活性使其易于扩展到2D backbone的预训练。通过新颖的采样策略,本文的方法在有效性和效率上都表现出了优越性。

本文在 nuScenes 数据集上进行了全面的实验,其中本文的方法超越了六种预训练策略的性能。包含七个 backbones 和两个感知任务的实验为本文方法的有效性提供了令人信服的证据。

网络设计:

本文提出了一种专为有效 3D 表示学习而定制的新颖的预训练范式,它不仅避免了复杂的正/负样本分配,而且还隐式提供了连续的监督信号来学习 3D 形状结构。如图 2 所示,整个框架将 masked点云作为输入,旨在通过 3D 可微神经渲染在投影的 2D 深度图像上重建缺失的几何形状。具体来说,当提供masked LiDAR 点云时,本文的方法采用 3D 编码器来提取分层特征。然后,通过体素化将 3D 特征转换到体素空间。本文进一步应用可微分体积渲染方法来重建完整的几何表示。本文方法的灵活性有助于其与预训练 2D backbone的无缝集成。多视图图像特征通过 lift-split-shoot (LSS) 构建 3D volume(Philion & Fidler,2020)。为了保持训练阶段的效率,本文提出了一种专为自动驾驶应用设计的节省内存的光线采样(ray sampling)策略,其可以大大降低训练成本和内存消耗。与传统方法相比,新颖的采样策略显着提高了准确性。

475931d20a369f17144aec9490bee61e.png

图 1:本文对 3D 检测和分割进行预训练的效果,其中 C、L 和 M 分别表示摄像机、LiDAR 和融合模态。

b3dba525e9d23355775d82cc40217005.png

图 2:整体架构。本文的框架采用 LiDAR 点云或多视图图像作为输入。本文首先提出 mask 生成器来部分 mask 输入。接下来,特定于模态的编码器适用于提取稀疏可见特征,然后将其转换为密集特征,其中 mask 区域填充为零。随后将特定于模态的特征转换到体素空间,然后是投影层以增强体素特征。最后,基于体积的神经渲染为可见区域和 mask 区域生成 RGB 或深度预测。

实验结果:

8c1f25d2fb51c050ea88f9f9bb126b7a.png ab36fc37d3d400b95fa8b85499f5e9cf.png f093bda0d79f3e9d7430d7621e187441.png 71ddf3a49cc0ffab9bb33edba3a1948f.png 77aeb12ff5b07e89acfbbff59d16b88c.png c5c85bdfdc4106e066120c11df9070f5.png 699e7bb9bc9a9a88f9de536a5fcaccc0.png

引用:

Yang, H., Zhang, S., Huang, D., Wu, X., Zhu, H., He, T., Tang, S., Zhao, H., Qiu, Q., Lin, B., He, X., & Ouyang, W. (2023). UniPAD: A Universal Pre-training Paradigm for Autonomous Driving. ArXiv. /abs/2310.08370

① 全网独家视频课程

BEV感知、毫米波雷达视觉融合多传感器标定多传感器融合多模态3D目标检测点云3D目标检测目标跟踪Occupancy、cuda与TensorRT模型部署协同感知语义分割、自动驾驶仿真、传感器部署、决策规划、轨迹预测等多个方向学习视频(扫码即可学习

909cdba16dc82b91026b047854fe9256.png 视频官网:www.zdjszx.com

② 国内首个自动驾驶学习社区

近2000人的交流社区,涉及30+自动驾驶技术栈学习路线,想要了解更多自动驾驶感知(2D检测、分割、2D/3D车道线、BEV感知、3D目标检测、Occupancy、多传感器融合、多传感器标定、目标跟踪、光流估计)、自动驾驶定位建图(SLAM、高精地图、局部在线地图)、自动驾驶规划控制/轨迹预测等领域技术方案、AI模型部署落地实战、行业动态、岗位发布,欢迎扫描下方二维码,加入自动驾驶之心知识星球,这是一个真正有干货的地方,与领域大佬交流入门、学习、工作、跳槽上的各类难题,日常分享论文+代码+视频,期待交流!

fd8a292390ac6cdfeba3be67a9b2fdb3.png

③【自动驾驶之心】技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦目标检测、语义分割、全景分割、实例分割、关键点检测、车道线、目标跟踪、3D目标检测、BEV感知、多模态感知、Occupancy、多传感器融合、transformer、大模型、点云处理、端到端自动驾驶、SLAM、光流估计、深度估计、轨迹预测、高精地图、NeRF、规划控制、模型部署落地、自动驾驶仿真测试、产品经理、硬件配置、AI求职交流等方向。扫码添加汽车人助理微信邀请入群,备注:学校/公司+方向+昵称(快速入群方式)

5a325898ccea9a35d87d4792655035f1.jpeg

④【自动驾驶之心】平台矩阵,欢迎联系我们!

9f5c83ba0edba515f1ba96778ff7c70b.jpeg

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值