CVPR 2023 | 南洋理工、商汤提出E3DGE:2D图片秒出3D形象

关注公众号,发现CV技术之美

导读
在CVPR 2023上,南洋理工大学-商汤科技联合实验室S-Lab的研究者提出的基于Encoder的快速3D GAN Inversion方法,针对现有3D GAN inversion方法无法兼顾重建速度、重建质量和编辑质量的问题,提出一种自监督3D GAN inversion训练框架。同时,通过构建全局-局部的多尺度结构以及2D-3D混合对齐模型实现了高保真、可编辑的3D重建。该方法适配包括StyleSDF、EG3D等SoTA 3D GAN模型,并在多个基准测试中取得了优异成绩。

论文名称:Self-Supervised Geometry-Aware Encoder for Style-Based 3D GAN Inversion

305660d78ecf7e1f83275f4cbbcadeb9.gif

研究背景

3a368d7a9a9e51eb11e51ac908988ec2.gif

近一两年来,通过使用GAN inversion将真实图片投影到GAN潜在空间,基于2D StyleGAN Inversion的方法在图像语义编辑任务上取得了显著进展。近期出现了一系列 [6,7] 基于StyleGAN结构的3D生成模型研究,然而,相应的通用3D GAN inversion框架仍然缺失,这极大地限制了基于3D GAN模型的重建和编辑相关应用。

由于3D重建的歧义性以及缺少2D-3D的配对数据,我们无法直接将2D GAN inversion的框架应用到3D GAN inversion。同时,由于单一隐变量的表达能力受限,通过现有inversion方法难以重建高质量的3D几何和纹理信息。此外,如何进一步支持高质量的3D编辑依然是一个待解决的问题。

为了解决上述问题,我们提出一个有效的自监督方法约束学习空间,并设计了一个全局-局部的多尺度模型来准确重建几何和纹理细节。该方法在2D、3D的基准数据集测试上都取得了更优的表现。

输入图片:

9abb97ed7116329974d728f5206771e7.jpeg

重建结果:

d6dde726adbade65ba8225a888749aea.gif

70235d50c3c6df9a8b83e300a6a476e2.gif

Editing 结果(+Smiling):

0d49dfa45ae1c4ec8cb412b1f8438cf9.gif

58c919abab27883c4dfc5026b8c9ab72.gif

Stylization 结果:

085ab354be2db0d1783477a681a47708.gif

a8ad426809196c55d309b2b49e1f5658.gif

1c89f894609bd3fd6eb6bc4a4c38a6d6.gif

方法

bb9011d5823acde25898e9018dbd0db5.gif

我们认为,一个有效的3D GAN inversion框架应该具备以下特点:

1. 给出单张视角图片作为输入,该方法能够重建合理的3D几何

2. 保留高清的纹理信息

3. 支持基于3D的语义编辑

基于以上标准,我们提出了E3DGE框架,并将该问题分解为三个子问题分别解决。

第一步,我们借鉴Sim2Real[1]的思路,将预训练的3D GAN视为一个拥有海量2D-3D数据对的集合。由于每一个高斯随机噪声z都能够采样得到 3D几何以及对应的某一视角下的2D图片,我们能够在训练过程中在线生成每一个batch的训练数据。同时,因为有了2D图片对应的3D几何ground truth,我们在2D监督信号的基础上,同时加入了3D重建的约束。这使得我们可以学习得到3D-aware的latent space,避免了单纯使用2D 监督信号导致的几何坍塌问题。

8bb2aa8492447e71857af8474631dc53.png

第二步,相关研究[2]显示,传统GAN inversion所采用的单一低维隐变量空间缺乏建模高频细节例如纹理的能力,降低视觉效果。3D inversion问题相比2D inversion所需建模的空间更大,对模型表征能力的要求更高,因此高清纹理建模问题变得更加严重。受到近期3D小样本重建方法[3]的启发,在共享的全局隐变量基础上, 我们提出引入局部隐变量提升模型的表达能力,弥补第一阶段重建中丢失的局部细节。其中,局部隐变量的值取决于具体的3D坐标在2D残差图上投影位置的特征。

如下图所示,我们计算在第一阶段重建中丢失的局部细节残差图并将残差图送入2D Hourglass [4]模型以提取缺失信息的特征,并联合所在位置结构编码作为补充特征一起与全局特征进行融合。融合过后的特征拥有准确生成重建任意视角的表达能力。

5fbc437bd635583ed261e214f3514301.png

通过以上设计,我们的方法能够实现高保真度的2D-3D重建和视角生成,但依然无法支持任意视角的编辑。

我们分析认为,输入视角的重建效果和任意新视角的编辑效果是相互权衡的:首先,在测试阶段,当输入图片被编辑或者测试视角与输入视角不符时,我们上一个阶段得到的残差图会导致错误的输出;同时,如果我们监督模型重建自身,模型更倾向于学习到回归式的特征,而非生成式的特征。

为了解决上述第一个问题,我们提出使用2D-3D混合对齐的方式来推导对齐的特征。具体而言,由于任意新视角编辑结果与残差图结果不匹配,我们使用一个2D对齐模块使得最终的融合特征能够输出高质量的新视角编辑效果。

0d8c235083aa024da197ee3d5050d95a.png

为了解决第二个问题,促使模型学习生成式特征,在GAN数据生成阶段,对于同一个高斯噪声z,我们随机采样两个视角并渲染得到两张目标图片。我们交换重建目标视角并训练模型来重建新视角。该训练策略在促使模型学习生成式特征的基础上,也能够让训练和测试的行为一致,更有助于保证在场景编辑上的高质量视角生成。

e77361da6a62495f51e8b51ccab80adf.gif

训练

80b8cf3d94e354a5b374f7115f21472a.gif

由于使用了预训练的3D GAN生成的2D-3D数据对,我们同时使用了2D和3 重建的损失函数:

794dff3eb142ff1bcfc1fb931ac874a8.png

在3D损失函数中,我们发现同时约束物体表面点集   和空间均匀采样点集    会带来更好的 3D 约束效果。

e8e843c65b4cddfa955994f4b2c80441.png

018bf76413f5eec8f2812afa93649104.gif

实验

89328a6e9e03b740ce2c20b613833635.gif

由于其良好的几何性质和高保真的图片生成能力,在本篇工作中我们选择了StyleSDF[7]作为GAN inversion预训练基础模型。

我们在FFHQ数据集上进行训练,并同时在2D和3D基准测试上对我们的方法进行了测试。在2D重建效果上,在CelebA-HQ数据集上进行输入视角重建的测试,并相比baseline获得了更优的表现:

87479271fe8ef90fae84ea74d0e971fd.png

在数值结果上,我们的方法在多种指标下都取得了最优的表现,而且推理速度大幅优于optimization-based方法:

e445cbd54539b75bb19c505c266cf7de.png

在3D 重建效果上,我们采用人脸3D重建数据集NoW[5]进行测试,验证了我们方法中3D监督的有效性。Median、Mean指重建的3D face与ground truth mesh表面的偏移距离统计量。

d72a47f2c82a03a1c75293bd53a36488.png

同时,我们的方法也能够在风格化3D GAN上表现出很好的效果:

837f8874a9c66cec5d044081888af037.png

b718d28037e450f9f9661dcba5b54821.gif

作者介绍

4c1b2ff7cfe490f5c7e5591a31053dda.gif

兰宇时,南洋理工大学S-Lab PhD student,本科毕业于北京邮电大学,目前主要研究兴趣为基于神经渲染的3D生成模型、3D重建与编辑。

8bfd5f2cd2a4b38ed76ffe1aed13aa08.gif

传送门

8a506dabccdc1f3d9819907e2a4962d5.gif

论文链接

https://arxiv.org/abs/2212.07409

论文代码

https://github.com/NIRVANALAN/E3DGE

项目主页

https://nirvanalan.github.io/projects/E3DGE/index.html

References:

[1] Zhang, Yuxuan et al. “DatasetGAN: Efficient Labeled Data Factory with Minimal Human Effort.” 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) (2021): 10140-10150.

[2] Wang, Tengfei et al. “High-Fidelity GAN Inversion for Image Attribute Editing.” 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) (2021): 11369-11378.

[3] Saito, Shunsuke et al. “PIFu: Pixel-Aligned Implicit Function for High-Resolution Clothed Human Digitization.” 2019 IEEE/CVF International Conference on Computer Vision (ICCV) (2019): 2304-2314.

[4] Newell, Alejandro et al. “Stacked Hourglass Networks for Human Pose Estimation.” European Conference on Computer Vision (2016).

[5] Sanyal, Soubhik et al. “Learning to Regress 3D Face Shape and Expression From an Image Without 3D Supervision.” 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) (2019): 7755-7764.

[6] Or-El, Roy et al. “StyleSDF: High-Resolution 3D-Consistent Image and Geometry Generation.” 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) (2021): 13493-13503.

d8155ac9099892fd41a0eb9d074ff96b.jpeg

END

欢迎加入「GAN交流群👇备注:GAN

9e32e9bbc22c29997b5b2849eeacefa9.png

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值