24年3月,北大、谷歌和加州大学共同发布了DrivingGaussian: Composite Gaussian Splatting for Surrounding Dynamic Autonomous Driving Scenes。视图合成和可控模拟可以生成自动驾驶的极端场景Corner Case,这些安全关键情况有助于以更低成本验证和增强自动驾驶系统安全性。DrivingGaussian采用复合高斯飞溅进行全局渲染,用于表示周围动态自动驾驶场景,在多运动对象、多相机一致性以及高保真度上实现了优秀的性能。
因为要仿真自动驾驶各种场景,最近我们组精读了几十篇文生图、文生视频特别是关于运动控制方面的经典论文,也实践复现了一部分,个人觉得,用AI自编剧制作出一部动作大片还尚需时日。
Abstract
我们提出了DrivingGaussian,一种用于表示周围动态自动驾驶场景的高效框架。对于运动对象复杂场景,我们首先使用增量静态三维高斯函数,对整个静态背景进行顺序渐进建模。然后,我们利用复合动态高斯图来处理多个移动对象,单独重建每个对象并恢复它们在场景中的准确位置和遮挡关系。我们进一步使用激光雷达先验进行高斯溅射,以重建具有更多细节的场景并保持全景一致性。DrivingGaussian在动态驾驶场景重建方面优于现有方法,实现了高保真度和多相机一致性的逼
DrivingGaussian是北京大学、谷歌和加州大学合作提出的一种新框架,用于表示和建模周围动态的自动驾驶场景。通过复合高斯飞溅,它能有效地处理多运动对象和高速移动的自车,实现高保真度和多相机一致性。该方法利用LiDAR先验,改善了场景重建的几何精度,尤其在动态驾驶场景中超越了现有技术。尽管存在对小物体和反射表面建模的挑战,DrivingGaussian为自动驾驶的安全验证和极端情况模拟提供了有效工具。
订阅专栏 解锁全文
1130

被折叠的 条评论
为什么被折叠?



