【数字人】12、DINet | 使用形变+修复模块实现高清 talking head 生成(AAAI2023)

在这里插入图片描述

论文:DINet: Deformation Inpainting Network for Realistic Face Visually Dubbing on High Resolution Video

代码:https://github.com/MRzzm/DINet

出处:AAAI2023

贡献:

  • 提出了能产生高分辨率视频的方法,能够同时产生准确的嘴型且保留纹理细节
  • 本文方法是【形变模块】+【修复模块】组成的,在参考帧的基础上对嘴型进行形变从而产生新的口型结果,而非直接生成

一、背景

在这里插入图片描述

本文针对 few-shot learning,提出了一种 Deformation Inpainting Network (DINet)

DINet 和之前的方法最大的不同在于:

  • 之前的方法主要依赖于多个上采样层来直接从隐空间来生成最终的像素结果
  • DINet 在 referece image 的特征图上使用了 spatial deformation,能够保留更多的高频纹理细节

DINet 的组成:

  • 一个 deformation 模块:嘴部形变模块,为了避免生成的结果产生模糊,本文是会对嘴部区域附近的特征图进行空间形变,用于产生音频同步的嘴型
    • 首先会自适应的选取 5 个参考帧(面部图片)
    • 然后使用 spatial deformation 来为这些参考帧的人脸的特征图进行形变,生成形变后的特征图,目标是为了让【嘴部】和输入的【音频+头部姿态】保持对齐
  • 一个 inpainting 模块:也就是一个解码器,能够将形变后的嘴部特征和上半脸+头部姿态合并起来,输出自然的生成结果
    • 通过卷积层融合源人脸特征和变形结果,修复嘴部区域像素

二、方法

在这里插入图片描述

本文提出的 DINet 的结构如图 2 所示,主要由变形模块( P D P^D PD)和修复模块 ( P I P^I PI)组成,前者是在空间上对参考帧的特征图进行形变,后者是利用变形后的结果来修复源人脸中的嘴部区域

这里为什么要使用 5 个 reference 图片,我的理解是为了提高每次迭代的特征的丰富性,让一个 source img 同时和这 5 个 reference img 的特征图来学习形变的东西,会更丰富一些。

2.1 deformation part

如图 2 的上半部分就是变形模块( P D P^D PD):

  • 给定源图片 source image I s ∈ R 3 × H × W I_s \in R{3 \times H \times W} IsR3×H×W
  • 给定驱动声音 A d ∈ R T × 29 A_d \in R^{T \times 29} AdRT×29
  • 给定 5 张参考图片 reference image I r e f ∈ R 15 × H × W I_{ref} \in R{15 \times H \times W} IrefR15×H×W

变形模块的主要目标是生成形变特征 F d ∈ R 256 × H / 4 × W / 4 F_d \in R{256 \times H/4 \times W/4} FdR256×H/4×W/4,并且这个特征是要和驱动音频 A d A_d Ad 同步的嘴型,并和 source 图片 I s I_s Is 对齐头部姿态

  • 首先,将音频特征输入 audio encoder 得到 audio feature F a u d i o F_{audio} Faudio
  • 然后,将 source image I s I_s Is 和 reference image I r e f I_{ref} Iref 输入两个不同的 encoder 网络来分别生成对应的特征 F s ∈ R 256 × H / 4 × W / 4 F_s \in R^{256 \times H/4 \times W/4} FsR256×H/4×W/4 F r e f ∈ R 256 × H / 4 × W / 4 F_{ref} \in R^{256 \times H/4 \times W/4} FrefR256×H/4×W/4
  • 接着,将 F s ∈ R 256 × H / 4 × W / 4 F_s \in R^{256 \times H/4 \times W/4} FsR256×H/4×W/4 F r e f ∈ R 256 × H / 4 × W / 4 F_{ref} \in R^{256 \times H/4 \times W/4} FrefR256×H/4×W/4 进行 concat 后输入一个 alignment encoder 来得到对齐后的特征 F a l i g n ∈ R 128 F_{align} \in R^{128} FalignR128 F a l i g n ∈ R 128 F_{align} \in R^{128} FalignR128 的作用是对 I s I_s Is I r e f I_{ref} Iref 的 head pose 进行对齐
  • 最后,使用 F a u d i o F_{audio} Faudio F a l i g n F_{align} Falign 被用于将 F r e f F_{ref} Fref 形变为 F d F_d Fd

如何进行形变呢:

  • 本文使用了 AdaAT 的方法来进行形变(没有使用密集flow的方法),主要的原因是相比于 flow,AdaAT 能够通过对特征通道进行特定变形来变形特征图
  • AdaAT 会在不同的特征通道上计算不同的仿射系数
  • 在此处 P D P^D PD 使用全连接层来计算旋转、平移、缩放系数,然后使用这些仿射系数对 F r e f F_{ref} Fref 进行仿射变换

在这里插入图片描述

2.2 inpainting part

图 2 的黄色矩形就是 inpainting part P I P^I PI 的结构,这个模块的目标就是使用 source image 的特征图 F s F_s Fs 和形变后的 ref 特征图 F d F_d Fd 来合成最终的说话图片 I o ∈ 3 × H × W I_o \in 3 \times H \times W Io3×H×W

  • 首先,将 F d F_d Fd F s F_s Fs 进行 concat
  • 然后,使用一个 decoder(卷积层)来修复 source image 被 mask 掉的嘴部区域,并且生成 I o I_o Io

2.3 Loss 函数

作者在训练过程中使用了 3 个 loss 函数

  • perception loss
  • GAN loss
  • lip-sync loss

1、perception loss

作者使用两个尺度上的图片来计算感知损失,作者将生成的图像和原始的图像送入 VGG-19 得到特征后计算一次 loss,下采样 2 倍后送入 VGG-19 得到特征后再计算一次 loss,两个 loss 求均值:

在这里插入图片描述

2、GAN loss

作者使用 LS-GAN loss

在这里插入图片描述

3、Lip-sync loss

作者使用这个 loss 是为了提升生成的嘴型同步性,作者使用 audio spectrogram with deepspeech 特征重新训练了 syncnet

在这里插入图片描述

4、整体 loss

在这里插入图片描述

三、效果

3.1 数据集

作者使用 HDTF 和 MEAD 数据集

  • HDTF:约 430 个视频,分辨率为 720P 或 1080P,随机选择 20 个视频作为测试
  • MEAD:收集了约 1920 个正常表情的前视方向的视频作为训练数据,选择了 240 个视频(6个人)作为测试

3.2 实现细节

数据处理:

  • 视频首先会 resample 到 25fps
  • 使用 openface 提取到 68 个人脸关键点,然后 crop 出面部区域,将所有 crop 的面部区域 resize 到 416x320,其中嘴部区域会占 256x256
  • 使用 deepspeech 提取语音特征

训练阶段:

  • DINet 输入一个 source frame,分辨率为 3x416x320,再输入一个 driving audio,维度为 5x29,还有 5 帧 reference image,分辨率为 15416x320
  • syncnet 输入 5 帧 mouth image(256x256) 和对应的 deepspeech 特征
  • 优化器:Adam,学习率 0.0001
  • batch: DINet 是 3,syncnet 是 20

3.3 可视化效果

在这里插入图片描述

在这里插入图片描述

  • 24
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

呆呆的猫

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值