Nonlinear 3D Face Morphable Model 论文笔记

该博客介绍了非线性3D面部模型(3DMM)的原理,包括线性模型的基础和非线性模型的扩展。非线性3DMM通过两个解码网络估计形状和纹理参数,并使用一个端到端训练的网络框架进行人脸重建。网络包括一个编码器和两个解码器,分别用于形状和纹理的解码,并采用对抗性损失和地标损失来优化重建质量。文章强调了2D纹理表示的重要性以及渲染层在处理遮挡和细节渲染中的作用。
摘要由CSDN通过智能技术生成

1、传统线性3DMM:

模型和纹理分别是平均值+基础值*系数——S = S¯ + Aα,T (l) = T¯(l) + Bβ,此为3DMM的基础。

并且提出了将 3D 人脸投影到图像平面上使用弱透视投影模型(3D转为2D透视投影模型):

  1. g(α, m):3D顶点位置在2D中的函数输出
  2. f:比例因子
  3. :正交投影矩阵
  4. R:欧拉角表示旋转角度
  5. t2d:平移向量
  6. M :有维度2×4,有六个自由度,通过一个 6 维向量 m来参数化。 然后使用 2D 图像渲染纹理和照明模型。

2、非线性3DMM

文章核心整体框架:

用两个networks decode Ds、Dt去解码形状,纹理,他们进入3D时分别是人脸形状和人脸纹理。为了使框架端到端可训练,这些参数通过encoder网络估计,它本质上是 3DMM 的拟合算法。三个深度网络联手以重建输入人脸图像为最终目标,在基于几何的渲染层帮助下。

总体流程:给一张2D人脸图片——我们需要学习一个encodeE:I→m,fS,fT 来估计投影参数 m、

形状参数和纹理参数——延伸到Ds:decode,fs到s,将形状参数解码到3DshapeS;Dt,decode,ft到t,将纹理参数解码到真实纹理T。目的是使带有m、S和T的渲染图像能够近似于原始图像,目标函数为:

形状纹理表示

形状解码器 DS 是一个 MLP,其输入是来自 E 的形状参数 fS。

指出了适合非线性3DMM的纹理模式,文章归类为

三种。

  1. ,Texture value per vertex。有纹理强度对应于面网格中每个顶点的值。自从3D 顶点未在 2D 网格上定义,此表示将被参数化为一个向量,这不仅失去了顶点的空间关系,但也阻止它利用在 2D 图像上部署 CNN 的便利性。相比之下,鉴于图像合成的快速发展,它最好选择 2D 图像,例如正面人脸。
  2. ,Texture as a 2D frontal face,作为纹理表示。正面包含很少的两侧信息,会丢失很多侧视图的纹理信息。
  3.  ,2D unwarped texture。具体来说,每个 3D 顶点 vS 都使用圆柱解扭曲投影到 UV 空间上。假设面部网格具有top 指向 y 轴,vS = (x, y, z) 的投影到 UV 空间 vT = (u, v) 计算如下:,其中 α1, α2, β1, β2 是不变的尺度和平移标量去展开的人脸放入图像边界。此外,纹理解码器 DT 是一个 CNN 构建的小数步长的卷积。

 网络人脸渲染

 为了从S,T,m中重建出人脸,文章中定义了一个渲染层R(m, S, T)。并且渲染分成三步走:

  1. S中每个顶点的纹理值由它在 2D 纹理 T 中的预定义位置,通常,它涉及通过双线性采样内核进行子像素采样:其中 vT = (u, v) 是 vS 通过的 UV 空间投影方程式 (5)。
  2. 其次,3D 形状/网格 S 通过 Eqn 投影到图像平面。如方程式(3)。
  3. 最后,3D网格是使用 Z 缓冲区渲染器渲染,其中每个像素都是与网格的单个三角形相关联

     

 其中, Φ(g, m, n) = {v (1) S , v (2) S , v (3) S }是返回包围像素的三角形的三个顶点的操作。

(m, n) 投影 g 后。为了处理遮挡,当一个像素位于多个三角形中时,选择离图像平面最近的三角形。每个像素的强度是通过插入强度来确定的。网格顶点通过重心坐标 {λ (i)} 3 i=1。值得注意的是,文章中2D 纹理表示可以通过卷积滤波器生成,这大大减少了 DT 中的参数数量。

网络构造(重点)

文章设计了 E, DT 网络架构,如 Tab. 所示。 1.此外,DS 包括两个全连接层1, 000-dim 中间表示,带有 eLU 激活。整个网络经过端到端的训练以重构输入图像,具有损失函数:

Lrec = PN i=1 ||ˆIi − Ii ||1,强制渲染图像ˆIi 类似于输入图像li。对抗性损失 Ladv 有利于真实渲染,而地标损失 LL 强制执行几何约束

对抗性损失,主要基于GAN,对抗性损失为广泛用于合成逼真的图像 ,其中生成器和鉴别器交替训练。 在文章的例子中,生成渲染图像的网络 ˆIi是发生器(generator)。 鉴别器包括一个专用网络 DA,旨在区分真实人脸图像 Ii 和渲染图像 ˆIi. 在生成器的训练过程中,纹理模型 DT 将被更新
目标是 ˆIi,通过DA被归类为真人脸。由于面部渲染已经创建了正确的人脸图像的全局结构,基于全局图像的对抗性损失可能无法有效地在局部面部区域上产生高质量的纹理。 因此,在鉴别器中使用了 patchGAN 。 这里 DA 是一个CNN 由四个 3 × 3 的卷积层组成,步幅为 2,和过滤器的数量分别为 32、64、128 和 1。 最后,能够使用对抗性损失的关键因素之一是在 2D 图像空间中渲染,而不是在 3D 顶点空间或展开的纹理空间。 这个显示了渲染层的必要性和重要性。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值