ECCV 2024 | NVIDIA DiPIR:无缝地将3D目标插入任何自动场景

点击下方卡片,关注“自动驾驶之心”公众号

戳我-> 领取自动驾驶近15个方向学习路线

>>点击进入→自动驾驶之心BEV感知技术交流群

编辑 | 自动驾驶之心

原标题:Photorealistic Object Insertion with Diffusion-Guided Inverse Rendering

论文链接:https://arxiv.org/pdf/2408.09702

项目主页:https://research.nvidia.com/labs/toronto-ai/DiPIR/

作者单位:NVIDIA 多伦多大学 Vector Institute

9aa75fc5a56ebb06f8ed06ca0d6df458.png

论文思路:

将虚拟物体正确插入到真实场景的图像中,需要对场景的光照、几何形状和材质,以及图像形成过程有深入的理解。尽管最近的大规模扩散模型在生成和修复图像方面表现出了强大的能力,但本文发现当前的模型还不足以“理解”单张图片中的场景,从而无法在保持合成物体的身份和细节的同时生成一致的光照效果(阴影、明亮的反射等)。本文提出使用个性化的大型扩散模型作为物理基础逆向渲染过程的指导(guidance)。本文的方法恢复了场景光照和色调映射参数,从而允许在单帧图像或室内外场景的视频中进行真实感的任意虚拟物体合成。本文的物理基础流程(physically based pipeline)进一步支持自动材质和色调映射的优化。

论文设计:

虚拟物体插入能够实现从虚拟制作到互动游戏和合成数据生成的一系列应用。为了生成真实感的插入效果,必须忠实地模拟虚拟物体与环境之间的相互作用,例如准确的镜面高光和阴影。

标准的虚拟物体插入流程通常包括三个关键步骤:i) 从输入图像中估计光照,ii) 创建3D代理几何模型,iii) 在渲染引擎中进行合成图像渲染。然而,第一个也是最重要的一步仍然是一个开放的研究问题。光照估计在处理有限输入(如使用低动态范围的消费设备拍摄的单张图像)时尤为具有挑战性。实际上,逆向渲染本质上是一个病态问题(ill-posed problem)。

为了限制其解空间,以往的研究要么试图定义手工设计的先验知识 [9,18,31,78],要么从数据中学习这些先验知识 [15–17,22,23,32,36,58,64,65,80]。然而,前者在应用于真实场景时往往效果不佳,而后者则由于缺乏真实数据而受到限制。因此,这些算法通常高度针对特定领域进行优化,例如室内场景 [15–17,52,65] 或室外场景 [22, 23, 58, 64, 80]。

为了解决这些挑战,本文提出利用大型扩散模型(DMs) [48] 学习到的强大图像生成先验知识来指导逆向渲染。与通常特定于某个领域的手工设计或监督数据驱动先验不同,DMs 是在大规模数据集上训练的,并展示出对世界及其背后物理概念的显著“理解”(“understanding”)。虽然 DMs 在生成过程中仍然常常无法产生准确的光照效果(如阴影和反射) [51],但本文观察到,当它们与基于物理的渲染器结合并适应场景时,可以提供有价值的指导。

具体来说,本文提出了用于逆向渲染的扩散先验(Diffusion Prior for Inverse Rendering)(DiPIR),基于以下三大主要贡献。首先,本文使用基于物理的渲染器来准确模拟光线与3D资产之间的相互作用,以生成最终的合成图像。本文还考虑了未知的色调映射曲线,以模仿相机传感器的响应。其次,本文提出了一种基于输入图像和插入资产类型的预训练DM的轻量化个性化方案。第三,本文设计了一种SDS损失 [46] 的变体,利用这种个性化并提高训练的稳定性。

在 DiPIR 中,DM 类似于人类评估者。它将编辑后的图像作为输入,并通过可微渲染将反馈信号传播到基于物理的场景属性,从而实现端到端优化。本文的实验表明,DiPIR 在室内和室外数据集上用于物体插入的光照估计方面优于现有的最先进方法。

89212f7d19d20abbb272c6ea0c140e06.png

图1:本文提出了DiPIR,这是一种基于物理的方法,用于从单张图像中恢复光照,能够将任意虚拟物体合成到室内和室外场景中,同时进行材质和色调映射优化。

f04e090a5c6a3981c039b4aca8d8f335.png

图2:方法概述。给定输入图像,本文首先构建一个包含虚拟物体和代理平面的虚拟3D场景。本文的基于物理的渲染器随后可微地模拟可优化环境贴图与插入虚拟物体的相互作用及其对背景场景(阴影)的影响(左)。在每次迭代中,渲染图像会被扩散并通过个性化的扩散模型(中)。适应后的Score Distillation公式的梯度通过可微渲染器传播回环境贴图和色调映射曲线。在收敛时,本文恢复光照和色调映射参数,从而实现从单张图像中对虚拟物体的真实感合成(右)。

f57cfc16a60c0f00e03f30d2a342469c.png

图3:带有概念保留的个性化。

aef0eed5dbc1e6e2ca81a6950a1d10fb.png

图4:在 PolyHaven 裁剪的HDRIs中插入物体的对比。

64d5c9b3247caa9c5482ee66530b82d4.png

图5:在 Waymo 驾驶场景中插入汽车资产。请注意插入汽车的阴影方向和清晰度,以及整体亮度、颜色和高光反射。

实验结果:

4d0255ca28ec0cfdf977ed5b92fff71a.png

图6:本文设计选择的定性消融研究。

a5abe4dc71ed5a946d494c70e2b10ae2.png

图7:本文的基于物理的逆向渲染流程解锁了更多应用,如材质优化、局部发光和色调映射优化。

16c02535c48ca993248be400701de159.png

表1:户外街景的定量用户研究。对于每个场景,用户会看到两个结果——一个是由本文的方法生成的,另一个是由基线方法生成的——并选择哪个更逼真。本文报告了在3组用户研究中,每组9名用户的平均结果。本文的方法在所有基线方法中表现更好(> 50%),并且在几乎所有光照条件下都更受欢迎。

8f3c513ae3349cdbf126fbe4002c50ff.png

表2:PolyHaven场景的定量评估。本文报告了类似于表1的用户研究偏好评分。度量值是相对于“参考”图像计算的,其中虚拟物体由真实环境贴图照亮。

f33e720bf4ead44672d9e142a5208d17.png

表3:户外驾驶场景的消融研究 [57]。本文报告了用户更喜欢DiPIR相对于其消融版本的图像百分比。本文的完整流程生成的结果比其消融版本更受用户青睐。

应用:

由于本文的方法恢复了基于物理的光照信息,因此在优化后可以插入任意新的虚拟物体,如图2所示。DiPIR还可以优化其他场景属性,如材质和局部光照。本文在这一方向进行了初步实验。

材质优化。结合可微渲染,DMs(扩散模型)可以为材质属性提供引导信号,如图7所示。给定一个纯漫反射的汽车,并将金属度和粗糙度属性设为可优化参数,扩散引导可以优化并使汽车看起来更加闪亮。通过将文本提示更改为“一辆胭脂红的汽车”,并将汽车的基色设为可优化参数,本文展示了DM可以将文本条件传播到PBR(基于物理渲染)属性并将汽车颜色更改为红色。当将局部发光设为可优化参数时,扩散模型还可以在夜间场景中打开汽车的大灯。

色调映射调整。本文通过一个控制实验进一步评估DMs(扩散模型)对色调映射的理解能力。如图7所示,本文固定估算的环境贴图,并对背景图像应用手动色调调整。通过扩散引导来优化色调曲线,使插入的物体在最终合成结果中与周围背景相匹配。

总结:

本文的方法利用了大型扩散模型固有的场景理解能力,作为物理基础逆向渲染流程的指导。本文设计了一种具有场景特定个性化的扩散引导信号,并结合可微的逆向渲染流程来恢复光照和色调映射参数。本文的方法不仅能够将虚拟物体插入场景中,还可以优化其他场景参数,例如插入物体的材质或解决相机之间的色调映射不匹配问题。本文相信,这种将可微渲染过程与数据驱动的先验知识相结合的方法,可以成功应用于许多其他内容创作领域,如重新照明和动画制作。

局限性和未来工作。本文的基于球面高斯函数的光照表示对于一般物体是足够的[35],但对于高度镜面反射的材料可能不够真实。对于更复杂的光照表示,添加环境贴图上的生成先验[41]是一个值得探索的方向。渲染公式可以扩展,以考虑场景本身对插入物体的反射效果(例如颜色渗透),但这可能会引入更多的不确定性,并需要了解代理几何体的材料(参见补充材料C.4中的失败案例)。最后,虽然DM个性化显著提高了结果的质量,但它增加了流程的开销和复杂性。最近的一些个性化方法不需要测试时微调[54],可以用来减轻这一负担。

引用:

@article{liang2024photorealistic,
    author = {Ruofan Liang and Zan Gojcic and Merlin Nimier-David and David Acuna 
              and Nandita Vijaykumar and Sanja Fidler and Zian Wang},
    title = {Photorealistic Object Insertion with Diffusion-Guided Inverse Rendering},
    journal = {arXiv preprint},
    year = {2024}
}

投稿作者为『自动驾驶之心知识星球』特邀嘉宾,欢迎加入交流!重磅,自动驾驶之心科研论文辅导来啦,申博、CCF系列、SCI、EI、毕业论文、比赛辅导等多个方向,欢迎联系我们!

654cf39a6ab132c0386719613435ccb1.jpeg

① 全网独家视频课程

BEV感知、BEV模型部署、BEV目标跟踪、毫米波雷达视觉融合多传感器标定多传感器融合多模态3D目标检测车道线检测轨迹预测在线高精地图世界模型点云3D目标检测目标跟踪Occupancy、cuda与TensorRT模型部署大模型与自动驾驶Nerf语义分割自动驾驶仿真、传感器部署、决策规划、轨迹预测等多个方向学习视频(扫码即可学习

7d5aa6b4d33cb6b0d346fa9c37bf99a8.png 网页端官网:www.zdjszx.com

② 国内首个自动驾驶学习社区

国内最大最专业,近3000人的交流社区,已得到大多数自动驾驶公司的认可!涉及30+自动驾驶技术栈学习路线,从0到一带你入门自动驾驶感知2D/3D检测、语义分割、车道线、BEV感知、Occupancy、多传感器融合、多传感器标定、目标跟踪)、自动驾驶定位建图SLAM、高精地图、局部在线地图)、自动驾驶规划控制/轨迹预测等领域技术方案大模型、端到端等,更有行业动态和岗位发布!欢迎扫描下方二维码,加入自动驾驶之心知识星球,这是一个真正有干货的地方,与领域大佬交流入门、学习、工作、跳槽上的各类难题,日常分享论文+代码+视频

c8c4ad1b12bacdea0d8cf31440e7a748.png

③【自动驾驶之心】技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦感知、定位、融合、规控、标定、端到端、仿真、产品经理、自动驾驶开发、自动标注与数据闭环多个方向,目前近60+技术交流群,欢迎加入!扫码添加汽车人助理微信邀请入群,备注:学校/公司+方向+昵称(快速入群方式)

45ab57412f13bf1000d06196c1356d10.jpeg

④【自动驾驶之心】全平台矩阵

a685963e5480a3ded30f9077907882d8.png

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值