LiDAR仿真新思路 | LidarDM:助力4D世界生成,仿真杀器~

点击下方卡片,关注“自动驾驶之心”公众号

戳我-> 领取自动驾驶近15个方向学习路线

>>点击进入→自动驾驶之心仿真测试技术交流群

编辑 | 自动驾驶之心

原标题:LidarDM: Generative LiDAR Simulation in a Generated World

论文链接:https://arxiv.org/pdf/2404.02903.pdf

代码链接:https://github.com/vzyrianov/lidardm

作者单位:伊利诺伊大学 麻省理工学院

165b885e9738d5d03f133ff23fa5389d.png

论文思路:

本文提出了LidarDM,这是一种新颖的激光雷达生成模型,能够产生逼真、布局感知(layout-aware)、物理上可信以及时间上连贯的激光雷达视频。LidarDM在激光雷达生成建模方面具有两个前所未有的能力:(一)由驾驶场景引导的激光雷达生成,为自动驾驶模拟提供了重大潜力;(二)4D激光雷达点云生成,使得创建逼真且时间上连贯的序列成为可能。本文模型的核心是一个新颖的综合4D世界生成框架。具体来说,本文采用隐扩散模型(latent diffusion models) 来生成3D场景,将其与动态交通参与者(dynamic actors)结合,形成底层的4D世界,然后在这个虚拟环境中产生逼真的感知观测数据。本文的实验表明,本文的方法在逼真度、时间连贯性和布局一致性方面优于竞争算法。本文还展示了LidarDM可以作为生成世界模型仿真器,用于训练和测试感知模型。

网络设计:

生成模型在理解数据分布和内容创作方面已经变得引人注目,例如在图像和视频生成[10, 33, 52–55]、3D物体生成[10,19,38,52]、压缩[5,29, 68]以及编辑[37,47]等领域。生成模型对于模拟[6, 11, 18, 34, 46, 60, 64, 66, 76, 82]也显示出显著的潜力,能够创建逼真的场景及其相关的感知数据,用于训练和评估安全关键的具身智能,如机器人和自动驾驶车辆,无需昂贵的手工建模现实世界。这些能力对于依赖广泛闭环训练或场景测试的应用至关重要。

尽管在条件图像和视频生成[15,27,35,44]方面的进步非常显著,但为自动驾驶应用生成特定场景下逼真的激光雷达点云序列的具体任务还未得到充分探索。目前的激光雷达生成方法主要分为两大类,每一类都面临着特定的挑战:

  1. 当前的激光雷达生成建模方法[8, 72, 79, 83]仅限于单帧生成,并且没有提供语义可控性和时间一致性的手段。

  2. 激光雷达重模拟(resimulation)[14, 17, 46, 65, 67, 74]严重依赖用户创建或现实世界收集的资产。这增加了高昂的操作成本,限制了多样性,并限制了更广泛的应用性。

为了应对这些挑战,本文提出了 LidarDM(激光雷达扩散模型),它能够创造出逼真的、布局感知的、物理上可信的、以及时间上连贯的激光雷达视频。本文探索了两种以前未曾涉及的新颖能力:(i) 由驾驶场景引导的激光雷达合成,这对自动驾驶仿真具有巨大潜力,以及 (ii) 旨在产生逼真且时间上连贯的有标注的激光雷达点云序列的 4D 激光雷达点云合成。本文实现这些目标的关键洞察在于首先生成和组合底层的 4D 世界,然后在这个虚拟环境中创造逼真的感知观察。为了实现这一点,本文整合了现有的 3D 物体生成方法来创建动态交通参与者(dynamic actors),并开发了一种基于隐扩散模型(latent diffusion models) 的大规模 3D 场景生成的新方法。这种方法能够从粗糙的语义布局产生逼真且多样化的 3D 驾驶场景,据本文所知,这是首次尝试。本文应用轨迹生成来创造动态效果,同时确保交通参与者(actors)之间以及交通参与者(actors)与场景之间的真实互动。最后,本文在每个时间步骤组合 3D 世界,并执行随机光线投射模拟(stochastic raycasting simulation)以产生最终的 4D 激光雷达序列。如图 1 所示,本文生成的结果多样化,与布局条件对齐,既逼真又时间上连贯。

本文的实验结果表明,由 LidarDM 生成的单帧图像展现出逼真性和多样性,其性能与最先进的无条件单帧激光雷达点云生成技术相当。此外,本文展示了 LidarDM 能够产生保持时间连贯性的激光雷达视频,超越了稳健的 stable diffusion 传感器生成基线。据本文所知,这是第一个具备此能力的激光雷达生成方法。本文进一步通过展示生成的激光雷达与真实激光雷达在匹配地图条件下的良好吻合,来证明 LidarDM 的条件生成能力。最后,本文说明了使用 LidarDM 生成的数据在用真实数据训练的感知模块测试时展现出最小的域差距,并且还可以用来扩展训练数据,显著提升 3D 检测器的性能。这为使用生成的激光雷达模型创造逼真且可控的仿真环境以训练和测试驾驶模型提供了前提。

117285b707816081e038f7127897af25.png

图 1:本文展示了 LidarDM,这是一个新颖的 4D 激光雷达生成模型。本文生成的激光雷达视频同时具有逼真性、布局条件性、物理可信性、多样性和时间连贯性的优势。

509a5fa96dc3d44dc6bf7b570e936af3.png

图 2:LidarDM 的应用:(a) 在没有 3D 捕捉或建模的情况下生成与地图紧密对齐的激光雷达(彩色框突出显示激光雷达与地图之间的一致性);(b) 为现有的交通模拟器(Waymax [20])提供传感器数据,使其能够仅从纯传感器数据评估安全关键场景;(c) 生成具有可控障碍物位置的大量激光雷达数据(被视为免费获得的真实标签),以通过无需昂贵数据捕捉和标注的预训练改进感知模型。

9978080af2da49b3107e9f100c4fa7c8.png

图 3:LidarDM 概览:给定时间 t = 0 时的交通布局输入,LidarDM 首先生成交通参与者(actors)和静态场景。然后,本文生成交通参与者(actors)和自车的运动,并构建底层的 4D 世界。最后,使用基于生成和物理的仿真来创建逼真的 4D 传感器数据。

046287b94634f08e6be5d2a74021c759.png

图 4:本文的 3D 场景生成流程。首先,累积的点云被用于重建每个真实网格样本。接下来,训练一个变分自编码器(VAE)将网格压缩成隐式编码。最后,训练一个以地图为条件的扩散模型,在 VAE 的隐空间内进行采样,产生新的样本。

af2227cfc762207dbb943dea78ca61d7.png

图 5:用于感知噪声模拟的随机光线丢弃(raydrop)网络,进一步增强了真实感。本文在上方的掩码距离图和掩码激光雷达图像中用红色突出显示了光线丢弃的(raydropped)点。

实验结果:

c9e7baa88c18dc35798a58e991f3c38a.png

图 6:真实的 KITTI-360 样本与来自竞争方法的无条件样本对比。UltraLiDAR 样本可视化直接从它们的论文中获取。与之前的方法相比,LidarDM 生成的样本具有更多数量、更详细的显著物体(例如,汽车、行人)、更清晰的 3D 结构(例如,直墙)以及更逼真的道路布局。

6a820bfd77d09f10f8e6e79c75b2d914.png

图 7:在 2 Waymax [20] 地图序列上进行的以地图为条件的序列生成的定性结果。本文还展示了相应的累积点云,以突出 LidarDM 的时序一致性。

98d70e88baae99304b9330a6d7205461.png 18ff4ec86bce3c5dbf72f756b476796f.png 9154c3400e38c94d1697ccc47717378e.png 68a132ac39471ba5de5dabca32eedf99.png

总结:

本文提出了 LidarDM,这是一个新颖的基于布局条件的隐扩散模型(latent diffusion models) ,用于生成逼真的激光雷达点云。本文的方法将问题框定为一个联合的 4D 世界创建和感知数据生成任务,并开发了一个新颖的隐扩散模型(latent diffusion models) 来创建 3D 场景。由此产生的点云视频是真实的、连贯的,并且具有布局感知(layout-aware)能力。

引用:

Zyrianov V, Che H, Liu Z, et al. LidarDM: Generative LiDAR Simulation in a Generated World[J]. arXiv preprint arXiv:2404.02903, 2024.

投稿作者为『自动驾驶之心知识星球』特邀嘉宾,欢迎加入交流!

① 全网独家视频课程

BEV感知、毫米波雷达视觉融合多传感器标定多传感器融合多模态3D目标检测车道线检测轨迹预测在线高精地图世界模型点云3D目标检测目标跟踪Occupancy、cuda与TensorRT模型部署大模型与自动驾驶Nerf语义分割自动驾驶仿真、传感器部署、决策规划、轨迹预测等多个方向学习视频(扫码即可学习

b9bbea39e1857ac5fe75f5d8a24ffed9.png 网页端官网:www.zdjszx.com

② 国内首个自动驾驶学习社区

国内最大最专业,近3000人的交流社区,已得到大多数自动驾驶公司的认可!涉及30+自动驾驶技术栈学习路线,从0到一带你入门自动驾驶感知2D/3D检测、语义分割、车道线、BEV感知、Occupancy、多传感器融合、多传感器标定、目标跟踪)、自动驾驶定位建图SLAM、高精地图、局部在线地图)、自动驾驶规划控制/轨迹预测等领域技术方案大模型、端到端等,更有行业动态和岗位发布!欢迎扫描下方二维码,加入自动驾驶之心知识星球,这是一个真正有干货的地方,与领域大佬交流入门、学习、工作、跳槽上的各类难题,日常分享论文+代码+视频

cd3ee11c20421d4fe195ed37b59f686b.png

③【自动驾驶之心】技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦感知、定位、融合、规控、标定、端到端、仿真、产品经理、自动驾驶开发、自动标注与数据闭环多个方向,目前近60+技术交流群,欢迎加入!

自动驾驶感知:目标检测、语义分割、BEV感知、毫米波雷达视觉融合、激光视觉融合、车道线检测、目标跟踪、Occupancy、深度估计、transformer、大模型、在线地图、点云处理、模型部署、CUDA加速等技术交流群;

多传感器标定:相机在线/离线标定、Lidar-Camera标定、Camera-Radar标定、Camera-IMU标定、多传感器时空同步等技术交流群;

多传感器融合:多传感器后融合技术交流群;

规划控制与预测:规划控制、轨迹预测、避障等技术交流群;

定位建图:视觉SLAM、激光SLAM、多传感器融合SLAM等技术交流群;

三维视觉:三维重建、NeRF、3D Gaussian Splatting技术交流群;

自动驾驶仿真:Carla仿真、Autoware仿真等技术交流群;

自动驾驶开发:自动驾驶开发、ROS等技术交流群;

其它方向:自动标注与数据闭环、产品经理、硬件选型、求职面试、自动驾驶测试等技术交流群;

扫码添加汽车人助理微信邀请入群,备注:学校/公司+方向+昵称(快速入群方式)

52f7b97a266e1e6643ee83b933dacf74.jpeg

④【自动驾驶之心】平台矩阵,欢迎联系我们!

b5deab45204cbfc88dac126669a26d51.jpeg

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值