ICLR2024 | ReSimAD:如何在没有真实数据的情况下,提升感知模型的泛化性能

点击下方卡片,关注“自动驾驶之心”公众号

ADAS巨卷干货,即可获取

今天自动驾驶之心为大家分享ICLR 2024刚刚中稿的ReSimAD,ReSimAD可以极大地提升感知模型对于目标域场景的泛化能力,甚至比一些无监督领域适配的方法还要好。文章一作也是自动驾驶之心的老朋友上海人工智能研究员张铂的工作~

如果您有相关工作需要分享,请在文末联系我们!

>>点击进入→自动驾驶之心技术交流群

论文作者 | PJLab-ADLab

编辑 | 自动驾驶之心

写在前面&笔者的个人理解

自动驾驶车辆传感器层面的域变化是很普遍的现象,例如在不同场景和位置的自动驾驶车辆,处在不同光照、天气条件下的自动驾驶车辆,搭载了不同传感器设备的自动驾驶车辆,上述这些都可以被考虑为是经典的自动驾驶域差异。这种域差异对于自动驾驶带来了挑战,主要因为依赖于旧域知识的自动驾驶模型很难在没有额外成本的情况下直接部署到一个从未见过的新域。因此在本文,我们提出了一种重建-仿真-感知(ReSimAD)方案,来提供了一种进行域迁移的新视角和方法。具体来说,我们利用隐式重建技术来获取驾驶场景中的旧域知识,重建过程的目的是为了研究如何将旧域中领域相关的知识转换为域不变的表示(Domain-invariant Representations),如,我们认为3D场景级网格表示(3D Mesh Representations)就是一种域不变的表示。基于重建后的结果,我们进一步利用仿真器来产生更加逼真的类目标域的仿真点云,这一步依赖于重建得到的背景信息和目标域的传感器方案,从而降低了后续感知过程中收集和标注新域数据的成本。

对于实验验证部分,我们考虑了不同的跨域情况,如Waymo-to-KITTI,Waymo-to-nuScenes,Waymo-to-ONCE等跨域设置。以上所有跨域设置都采用zero-shot的实验设置,即不接触到任何目标域的点云数据信息,而仅仅依赖于源域重建的背景mesh和仿真传感器来进行目标域样本仿真,提升模型对于目标域的泛化能力。结果表明,ReSimAD可以极大地提升感知模型对于目标域场景的泛化能力,甚至比一些无监督领域适配(UDA)的方法还要好。

论文信息

8407165f68fc058ee7052711de0c8527.png
  • 论文题目:ReSimAD: Zero-Shot 3D Domain Transfer for Autonomous Driving with Source Reconstruction and Target Simulation

  • ICLR-2024接收

  • 论文发表单位:上海人工智能实验室,上海交通大学,复旦大学,北京航空航天大学

  • 论文地址:https://arxiv.org/abs/2309.05527

  • 代码地址:仿真数据集和感知部分,https://github.com/PJLab-ADG/3DTrans#resimad;源域重建部分,https://github.com/pjlab-ADG/neuralsim;目标域仿真部分,https://github.com/PJLab-ADG/PCSim

研究动机

挑战:虽然3D模型可以帮助自动驾驶汽车识别周围环境,但现有的基准模型很难推广到新的域(如不同的传感器设置或未见过的城市)。自动驾驶领域的长期愿景是可以以较低的代价让模型可以实现域迁移,即:将一个在源域上充分训练的模型成功地适配到目标域场景,其中源域和目标域分别是存在明显数据分布差异的两个域,如源域是晴天,目标域是雨天;源域是64-beam传感器,目标域是32-beam传感器。

常用的解决思路:面临上述域差异情况,最常见的解决方案是对目标域场景进行数据获取和数据标注,这种方式可以从一定程度上避免域差异带来的模型性能退化的问题,但是存在极大的1)数据采集代价和2)数据标注代价。因此,如下图所示(请看(a)和(b)两基线方法),为了缓解对于一个新域的数据采集和数据标注代价,可以利用仿真引擎来渲染一些仿真点云样本,这是常见的sim-to-real研究工作的解决思路。另一种思路是无监督领域适配(UDA for 3D),这一类工作的目的是研究如何在仅仅接触到无标注的目标域数据(注意是真实数据)的条件下,实现近似全监督微调的性能,如果可以做到这一点,确实省去了为目标域进行标注的代价,但是UDA方法仍然需要采集海量的真实目标域数据来刻画目标域的数据分布。

ebeea2b1e9bbbbd06585fc9480182108.png
图1:不同训练范式的对比

我们的思路:不同于上述两个类别的研究思路,如下图所示(请看(c)基线流程),我们致力于虚实结合的数据仿真-感知一体化路线,其中虚实结合中的真实是指:基于海量有标签的源域数据,来构建一个域不变(domain-invariant)的表示,这种假设对于很多场景具有实际意义,因为经过长期历史数据积累,我们总可以认为这种有标注的源域数据是存在的;另一方面,虚实结合中的仿真是指:当我们基于源域数据构建了一种域不变(domain-invariant)的表示后,这种表示可以被导入到现有的渲染pipeline中来执行目标域数据仿真。相比于目前sim-to-real这一类研究工作,我们的方法有真实场景级数据作为支撑,包括道路结构、上下坡等真实信息,这些信息是仅仅依赖于仿真引擎本身难以获得的。当获得了类目标域的数据之后,我们将这些数据融入到目前最好的感知模型中,如PV-RCNN,进行训练,然后验证模型在目标域下的精度。整体的详细工作流程请见下图:

78c8521cc411d9a16008f9efc77e8814.png
图2 ReSimAD流程图

ReSimAD的流程图如图2所示,主要包括a) Point-to-Mesh隐式重建过程, b) Mesh-to-point仿真引擎渲染过程, c) 零样本感知过程

ReSimAD: 仿真重建感知范式

a) Point-to-mesh隐式重建过程:受到StreetSurf的启发,我们仅使用激光雷达重建来重建真实而多样的街道场景背景、动态交通流信息。我们首先设计了一个纯点云SDF重建模块(LiDAR-only Implicit Neural Reconstruction,LINR),其优势是可以不受到一些由camera传感所导致的域差异的影响,例如:光照变化、天气条件变化等。纯点云SDF重建模块将LiDAR rays作为输入,然后预测深度信息,最终构建场景3D meshes表示。

具体地,对于从原点,方向为 发射的光线,我们对激光雷达应用体渲染来训练Signed Distance Field (SDF)网络,渲染深度可以公式化为:

其中是第个样本点的采样深度,是累积透射率(the accumulated transmittance),是通过使用NeuS中的近距离模型获得的。

从StreetSurf中获得灵感,本文提出的重建过程的模型输入来自于激光雷达射线,输出是预测的深度。在每个采样的激光雷达光束上,我们在上应用对数L1损失,即组合近景和远景模型的渲染深度:

然而,LINR方法仍然面临一些挑战。由于激光雷达获取到的数据的固有稀疏性,单个激光雷达点云帧仅能捕获标准RGB图像中包含的信息中的一部分信息。这种差异突显了深度渲染在为有效训练提供必要的几何细节方面的潜在不足。因此,这可能导致在所得到的重建网格内产生大量的伪影。为了应对这一挑战,我们提出拼接一个Waymo序列中的所有帧,以此来提升点云的密度。

由于Waymo数据集中顶部激光雷达(Top LiDAR)的垂直视场的限制,仅获得-17.6°至2.4°之间的点云对周围高层建筑的重建存在明显的限制。为了应对这一挑战,我们引入了一种将侧面激光雷达(Side LiDAR)的点云纳入采样序列来进行重建的解决方案。四个补盲雷达分别安装在在自动驾驶车辆的前部、后部和两个侧面,垂直视野达到[-90°, 30°],这有效地补偿了顶部激光雷达的视野范围不足的缺点。由于侧面激光雷达和顶部激光雷达之间的点云密度存在差异,我们选择为侧面激光雷达分配更高的采样权重,以提高高层建筑场景的重建质量。


重建质量评价: 由于动态物体造成的遮挡和激光雷达噪声的影响,隐式表示进行重建可能存在于一定的噪声。因此,我们对重建精度进行了评估。因为我们可以获取到来自于旧领域的海量带标注的点云数据,因此我们可以通过在旧域上进行重新渲染来获取到旧域的仿真点云数据,以此来评价重建mesh的准确性。我们对仿真后的点云和原始真实点云进行度量,使用均方根误差(RMSE)和倒角距离(CD):

其中对于每个序列的重建得分和一些详细过程的描述请参考原文附录。


b) Mesh-to-point仿真引擎渲染过程: 在通过上述LINR方法获得到静态背景mesh后,我们使用Blender Python API将网格数据从.ply格式转换为.fbx格式的3D模型文件,并最终将背景mesh作为资产库加载到用于开源模拟器CARLA中。

我们首先获得Waymo的标注文件,来获取每一个交通参与者的边界框类别和三维物体大小,并根据这些信息,我们在CARLA的数字资产库中搜索同一类别的交通参与者中大小最接近的数字资产,并将这个数字资产导入并作为交通参与者模型。根据CARLA模拟器中可用的场景真实性信息,我们为交通场景中的每个可检测的目标开发了一个检测框提取工具。详细信息请参考,PCSim开发工具。

97ae780e0904dc5440ebdbbff4e9523d.png

图3 不同数据集交通参与者物体大小的分布(长、宽、高)。从图3中可以看出,利用这种方法所仿真的物体大小的分布多样性很广,超过了目前已经公开的数据集像KITTI, nuScenes,Waymo, ONCE等。

ReSimAD重建-仿真数据集

我们将Waymo作为源域数据,并且在Waymo上进行重建从而获得较真实的3D mesh。于此同时,我们将KITTI, nuScenes,ONCE作为目标域场景,并且在这些目标域场景下验证我们方法所实现的zero-shot性能。

我们根据上述章节的介绍基于Waymo数据集产生3D场景级的meshes数据,并且利用上述评价准则来在Waymo domain下判断哪些3D meshes是高质量的,并且根据打分选择最高的146个meshes来进行后续的目标域仿真过程。

2f121aaf5942110e71da43648de304eb.png
评估结果

关于ResimAD数据集中的一些可视化例子如下图所示:

c604f869296c413586d5a679808c2c59.png
评估结果

实验章节

实验设置

  • 基线选择:我们将所提出的ReSimAD与三种典型的跨域基线进行比较:a)直接使用仿真引擎进行数据仿真的基线;b)通过改变仿真引擎中的传感器参数设置,来进行数据仿真的基线;c)域自适应(UDA)基线.

  • 度量标准:我们对齐目前进行3D cross-domain object detection的评价标准,分别采用基于BEV的和基于3D的AP作为评价度量标准。

  • 参数设置:详情参考论文.

实验结果

这里只展示了主要实验结果,更多结果请参考我们的论文。

三种跨域设置下,PV-RCNN/PV-RCNN++两种模型的适配性能

4c781a5797fbf06be3f07b7acbe4672d.png

从上述表格中我们可以观察到:利用无监督域自适应(UDA)技术UDA和ReSimAD之间的主要区别在于,前者使用目标域真实场景的样本进行模型领域迁移,而ReSimAD的实验设置是要求其不能够访问到目标域的任何真实点云数据。从上表中可以看出,我们的ReSimAD所获得的跨域结果与UDA方法所获得的结果是可比较的。这一结果表明,当激光雷达传感器出于商业目的需要升级时,我们的方法可以大大降低数据采集成本,并进一步缩短模型由于领域差异所导致的再训练、再开发周期。

ReSimAD数据作为目标域的冷启动数据,在目标域上可以达到的效果

75d444542e4ba85ebf52c995464e57e4.png

使用ReSimAD生成的数据的另一个好处是,可以在不访问任何目标域真实数据分布的情况下就能获得高性能的目标域精度。这个过程其实类似于自动驾驶模型在新场景下的“冷启动”过程。

上表报告了在全监督目标域下的实验结果。Oracle代表了模型是在全量带标注目标域数据上训练的结果,而SFT表示基线模型的网络初始化参数是由ReSimAD仿真数据训练的权重提供的。上述实验表格表明,使用我们的ReSimAD方法所仿真的点云可以获得较高的初始化权值参数,其性能超过了Oracle实验设置。

ReSimAD数据作为通用数据集,利用AD-PT预训练方式在不同下游任务上的性能

791e2349e23f4e80cf413ba1b421c664.png

为了验证ReSimAD是否可以生成更多的点云数据来帮助3D预训练,我们设计了以下实验:使用AD-PT(近期提出的一个关于自动驾驶场景下预训练骨干网络的方法)在仿真的点云上来预训练3D backbone,然后使用下游的真实场景数据进行全参数微调。

  • 我们利用ReSimAD生成具有更广泛分布的点云的数据。为了与AD-PT中的预训练结果进行公平的比较,ReSimAD生成的仿真点云数据的目标量约为。在上述表格中,我们的基线检测器分别在真实预训练数据(ONCE数据集)和仿真预训练数据(由ReSimAD提供)进行3D预训练,使用AD-PT方法,并在KITTI和Waymo数据集上进行下游微调。上表的结果表明,使用不同规模的仿真预训练数据,可以不断提高模型在下游的性能。此外,可以看到由ReSimAD获取的预训练数据的数据获取成本是很低的,相比于采用ONCE进行模型预训练,并且ReSimAD所获得的预训练性能和ONCE数据集上的预训练性能是可比较的。

采用ReSimAD重建仿真 v.s. 采用CARLA默认仿真的可视化对比

5f3424b898c1c75d26073f26d0050b56.png

我们基于Waymo数据集重建的mesh v.s. 使用VDBFusion重建的可视化对比

6c2697d0d35d2c4d26a71ce11cb1cc11.png

总结

在这项工作中,我们致力于研究如何实验零样本目标域模型迁移任务,该任务要求模型不接触到任何来自于目标域的样本数据信息,就可以将源域预训练的模型成功地迁移到目标域场景。不同与之前的工作,我们首次探索了基于源域隐式重建和目标域多样性仿真的3D数据生成技术,并且验证了该技术可以在不接触到目标域数据分布的情况下实现较好的模型迁移性能,甚至比一些无监督领域适配(UDA)的方法还要好。

投稿作者为『自动驾驶之心知识星球』特邀嘉宾,欢迎加入交流!

① 全网独家视频课程

BEV感知、毫米波雷达视觉融合多传感器标定多传感器融合多模态3D目标检测车道线检测轨迹预测在线高精地图世界模型点云3D目标检测目标跟踪Occupancy、cuda与TensorRT模型部署大模型与自动驾驶Nerf语义分割自动驾驶仿真、传感器部署、决策规划、轨迹预测等多个方向学习视频(扫码即可学习

1b9228b013fbc3af4342ee6a3c524860.png 视频官网:www.zdjszx.com

② 国内首个自动驾驶学习社区

近2400人的交流社区,涉及30+自动驾驶技术栈学习路线,想要了解更多自动驾驶感知(2D检测、分割、2D/3D车道线、BEV感知、3D目标检测、Occupancy、多传感器融合、多传感器标定、目标跟踪、光流估计)、自动驾驶定位建图(SLAM、高精地图、局部在线地图)、自动驾驶规划控制/轨迹预测等领域技术方案、AI模型部署落地实战、行业动态、岗位发布,欢迎扫描下方二维码,加入自动驾驶之心知识星球,这是一个真正有干货的地方,与领域大佬交流入门、学习、工作、跳槽上的各类难题,日常分享论文+代码+视频,期待交流!

3bf5f4354e19aa029f755310f7e2649a.png

③【自动驾驶之心】技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦目标检测、语义分割、全景分割、实例分割、关键点检测、车道线、目标跟踪、3D目标检测、BEV感知、多模态感知、Occupancy、多传感器融合、transformer、大模型、点云处理、端到端自动驾驶、SLAM、光流估计、深度估计、轨迹预测、高精地图、NeRF、规划控制、模型部署落地、自动驾驶仿真测试、产品经理、硬件配置、AI求职交流等方向。扫码添加汽车人助理微信邀请入群,备注:学校/公司+方向+昵称(快速入群方式)

538d1d9f736c1c1796df287dfb30a690.jpeg

④【自动驾驶之心】平台矩阵,欢迎联系我们!

52b762e9bc64c5df37f82ef1a987dae4.jpeg

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值