Google Research:使用文本到图像模型和合成数据平滑地编辑物体的材料属性

点击上方“AI公园”,关注公众号,选择加“星标“或“置顶”


作者:Mark Matthews and Yuanzhen Li, Software Engineers, Google Research

编译:ronghuaiyang

导读

我们介绍了一种方法,该方法通过参数化编辑图像中物体的材质属性(如颜色、光泽度或透明度)来增强图像生成模型。

我们介绍了一种方法,该方法通过参数化编辑图像中物体的材质属性(如颜色、光泽度或透明度)来增强图像生成模型。所得的参数化模型利用了生成文本到图像模型对现实世界的理解,通过使用合成数据集进行微调。

许多现有的工具允许我们编辑拍摄的照片,从突出照片中的某个物体到可视化一个空房间可能呈现的颜色。平滑可控(或参数化)编辑是理想的选择,因为它们提供了精确控制物体表面光泽度(例如,咖啡杯)或墙面油漆确切色调的能力。然而,在保持逼真度的同时实现这些类型的编辑通常需要使用现有程序的专业技能。使用户能够在保持逼真度的同时进行这些类型的编辑一直是计算机视觉领域的一个难题。

以往的方法,如本征图像分解,将图像分解为代表“基本”视觉成分的图层,如基色(也称作“反照率”)、光泽度和光照条件。这些分解的图层可以单独编辑并重新组合以生成逼真的图像。挑战在于确定这些视觉成分时存在很大的模糊性:球的一侧看起来暗是因为它的颜色暗淡还是因为有阴影?那里的高光是由于强光还是表面本身就是白色的?人们通常能够区分这些情况,但有时也会被迷惑,这使得对计算机来说这是一个难题。

其他最近的方法利用了擅长生成逼真图像的生成文本到图像(T2I)模型来编辑图像中的物体。然而,这些方法难以分离材料和形状信息。例如,尝试将房子的颜色从蓝色改为黄色可能会同时改变其形状。我们在StyleDrop中也观察到了类似的问题,它可以生成不同的外观,但在不同风格之间无法保持物体形状。能否找到一种方法来编辑物体的材质外观同时保持其几何形状不变?

在论文“Alchemist: Parametric Control of Material Properties with Diffusion Models”,发表于CVPR 2024中,我们提出了一种技术,该技术利用T2I模型的逼真先验知识,使用户能够参数化地控制图像中物体特定材质属性(如粗糙度、金属外观、基色饱和度和透明度)的编辑。我们展示了我们的参数化编辑模型能够改变物体的属性同时保持其几何形状不变,甚至当物体变得透明时还能填充背景。

方法

我们采用了传统计算机图形学和基于物理的渲染技术,这些技术多年来使电影和电视视觉效果的逼真度得以实现,来渲染一个合成数据集,从而使我们能够完全控制材质属性。我们从一组包含100个不同几何形状的家庭用品3D模型开始。创建这些模型的图像需要选择材质、相机角度和光照条件。我们随机选择这些条件,这样我们可以为每个物体创建大量的“基准图像”。对于每个基准图像,我们改变材质的一个单一属性,比如粗糙度或透明度,以产生多个具有不同编辑强度的图像版本,同时保持物体形状、光照和相机角度不变。我们将编辑强度定义为一个改变材质属性的标量值。定义这些值是一个启发性的设计选择,但为了简化起见,我们设置0为“无变化”,-1为“最小变化”,+1为“最大变化”,具体取决于属性。

07d9268ee1a623ce9b65ec84ad01ec82.png

我们合成数据集中的样本,展示了线性属性变化所导致的外观变化

接下来,我们修改了Stable Diffusion 1.5架构,这是一种用于图像到文本(T2I)生成的潜在扩散模型,使其能够接受编辑强度值,从而实现我们所需的材料参数的精细控制。为了教会模型如何仅改变我们想要的材料属性,我们在只展示所需材料属性变化的合成图像数据集上对其进行微调,并同时输入对应的编辑强度。模型学习了如何根据上下文图像、指令以及定义所需相对属性变化的标量值来编辑材料属性。

为了编辑现实世界图像中物体的材料属性,我们只需将新的现实世界图像提供给训练好的模型,并输入用户想要的编辑强度即可。模型从相对较少的合成数据推广到了现实世界的图像,解锁了现实世界图像的材料编辑功能,同时保持所有其他属性不变。这种在特定任务数据集上进行微调的相对简单的方法,展示了T2I模型在广泛领域输入图像上的泛化能力。

结果

我们对该方法的效果印象深刻。当要求使物体具有金属质感时,我们的模型有效地改变了物体的外观,同时保持了物体的形状和图像光照不变。当要求使一个物体变得透明时,它能够真实地填充物体背后的背景、隐藏的内部结构,以及折射效果(光线通过物体时产生的折射)。

e8621b21dfbfdfedd38dee6749e8b098.png

df9843ced16afd8283b2404a45f725a4.png

126232854fce9122a0bed2f761e3686b.png

材料属性的平滑编辑。输入展示的是模型训练中从未见过的图像。输出展示的是模型的输出结果。请注意观察输出图像随着编辑强度的变化而平滑地改变材料属性的方式。

此外,在一项用户研究中,我们将我们的方法与基线方法InstructPix2Pix进行了比较,后者是在相同的合成数据集上训练的。内部志愿者被要求审查12组编辑过的图像并选择:(1) 最具摄影逼真的图像,以及 (2) 他们更喜欢的图像。研究结果显示,我们的方法在摄影逼真度方面表现更优(69.6% vs. 30.4%),并且总体上更受青睐(70.2% vs. 29.8%),相比基线方法。

应用

这项技术的潜在用途非常广泛。除了更容易想象重新粉刷备用房间后的样子之外,建筑师、艺术家和设计师也能更轻松地模拟新产品设计。我们还证明了模型执行的编辑在视觉上是一致的,这使得它们能够在下游的三维任务中得到应用。

例如,给定一系列场景的图像,NeRF重建允许合成新的视角。我们只需编辑这些输入图像,改变输入图像中的材料外观。然后使用NeRF来合成场景的新视角。我们在场景中观察到了我们对材料属性编辑的三维一致性渲染。下面是这一过程的结果示例。

e647c71c2fd8360edd24cb4fb29a0331.png

NeRF 材料编辑。左上角展示了基于真实图像创建的 NeRF。在中间上方和右上方的图像中,我们使用我们的模型编辑输入图像,然后从头开始训练一个新的 NeRF。底部一行显示了在其他场景上的类似编辑。

结论

我们提出了一种技术,该技术利用预训练的文本到图像模型和合成数据,使用户能够以摄影逼真且可控的方式编辑图像中物体的材料属性。虽然模型在某些情况下难以处理隐藏细节,但我们对该方法在可控材料编辑方面的潜力感到鼓舞。

68481086b16fe5abe22846a0e258161f.png

—END—

英文原文:https://research.google/blog/smoothly-editing-material-properties-of-objects-with-text-to-image-models-and-synthetic-data/

ef379ab5ad68a074a3eb1d8fc4890664.jpeg

请长按或扫描二维码关注本公众号

喜欢的话,请给我个在看吧

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值