【论文复现】HyperLips: Hyper Control Lips with High Resolution Decoder for Talking Face Generation

本文介绍了一种新型框架HyperLips,通过结合超网络和高分辨率解码器,解决了音频驱动的说话人脸生成中保证嘴唇同步和高保真度的挑战。方法分为两阶段:一是使用音频信息控制嘴唇形状,二是通过HRDecoder提升面部细节。
摘要由CSDN通过智能技术生成

具有高分辨率解码器的超控制嘴唇,用于说话人脸生成。

code:GitHub - semchan/HyperLips: Pytorch official implementation for our paper "HyperLips: Hyper Control Lips with High Resolution Decoder for Talking Face Generation".

paper:GitHub - semchan/HyperLips: Pytorch official implementation for our paper "HyperLips: Hyper Control Lips with High Resolution Decoder for Talking Face Generation".

论文

摘要

动机:对于现有的音频驱动的人脸说话生成方法来说,在渲染高保真人脸视频的同时确保嘴唇同步仍然是一个挑战。为解决这个问题,本文提出HyperLips,一个两阶段框架,由一个用于控制嘴唇的超网络和一个用于渲染高保真人脸的高分辨率解码器组成。

talking head 一般可以进行如下分类:

  • 只使用 audio-driven,也就是输入一段音频和一张图片,使用输入的音频来驱动这个图片来得到很多帧对应的图片来组成最终的视频。这种方式一般是 person-specific 的,如果需要对新的没见过的 person 来生成视频,需要重新训练,而且使用单帧图像驱动的效果不是很自然,容易产生形变。
  • 同时使用 audio-driven 和 source video,也就是有一段该 person 的视频和驱动的音频,使用音频驱动模特的嘴部附近运动,这样得到的视频保真性更高。

如图 1 所示,本文的的方法就是同时需要 audio-driven 和 source video 的方法,表情和动作都来自于 source video。

作者在这里就提出了这种方法面临的两个问题:

  1. 如何生成更准确的唇形
  2. 如何渲染出更保真的面部,尤其是更清晰的牙齿和唇部

之前的工作:

  1. wav2lip:提出了唇形合成判别器来提升唇部的准确性
  2. SyncTalkFace:提出了 audio lip memory,也就是使用嘴部区域的视觉特征和对应的 audio 来强化 audio-visual 的关系
  3. IP_LAP:使用 transformer-base 关键点生成,来推理 lip 和 关键点的关系
  4. 这些方法主要是聚焦于在 decoding 之前对 audio 和 visual 进行融合,但是 audio 和 visual 的维度不同,所以需要将这两个特征变成相同的尺寸再进行特征融合

方法:两阶段

        第一阶段:使用了一个基于 audio information 的 hypernetwork 来控制嘴唇的合成形状

        将视觉的 face 信息编码到隐空间,然后使用 HyperConv 对隐空间特征进行特征修正,将修正后的特征 decode 得到 visual face content。HyperConv的权重参数是通过使用音频特征作为输入来构建一个超网络来生成的,从而实现在渲染的视觉内容中对嘴唇运动的音频控制。使用超网络是为了避免在视觉和音频特征融合过程中的额外操作,并更好地确保生成视频中的嘴唇同步。本文想法与音频条件扩散模型[24]类似,将音频信息作为条件变量,但这种方法采用扩散模型作为网络架构,这增加了对计算资源的需求。

        第二阶段:提出了一个高分辨率解码器(HRDecoder)来进一步优化生成面部的保真度。利用第一阶段生成的面部数据和相应的面部草图训练网络,在草图的指导下,实现面部增强。

        为了渲染出更高保真度的面部,DINet[22] 提出了一种形变填充网络来实现高分辨率视频上的面部视觉配音,但如果嘴部区域覆盖了背景,它可能会产生面部以外的人工痕迹。IP_LAP[21]利用从下半部遮挡的目标面部和静态参考图像中提取的先验外观信息,但如果在参考图像中无法检测到 landmark,它可能会失败。另一种可能的方法是基于如 Wav2lip[8] 或 SyncTalkFace[20] 等网络增加输入分辨率,但这不仅增加了训练资源的需求,而且渲染效果不佳,导致持续的人工痕迹。所以本文使用的是 HRDecoder 来提升面部保真度。

图2概述。可以分为两个阶段:(1)基本人脸生成。FaceEncoder将视觉人脸信息(引用和掩码)编码为潜码,然后通过超卷积操作修改潜码,最后FaceDecoder将修改后的潜码解码为视觉人脸内容。HyperConv的权重参数由一个以音频特征为输入的超网络更新,从而在渲染的视觉人脸内容(基本脸)中实现音频控制唇动。(2)高保真渲染。高分辨率解码器(HRDecoder)用于进一步优化生成人脸的保真度。利用第一阶段生成的人脸数据和相应的人脸草图来训练网络,以实现人脸增强。因此,HRDecoder的输入是基面素描与基面的拼接特征,输出为高保真人脸。 

相关工作
2.1 Audio-Driven Talking Face Generation
在只使用音频输入的音频驱动的说话面部生成方法中[12]–[16],通常需要收集特定于人物的音频和视频并进行重新训练。通过引入神经辐射场(NeRF)[25]来表示说话头部的场景[13],可以控制它以在新视角下渲染面部。RAD-NeRF [12]将本质上高维的说话肖像表示分解为三个低维特征网格,使得可以实时渲染说话肖像。GeneFace [14]提出了一个变分运动生成器,以生成准确和富有表现力的面部标志,并使用基于NeRF的渲染器来渲染高保真帧。由于缺乏先验信息,这些任务仍然难以渲染出逼真的表情和自然的动作。

为了驱动单个面部图像,ATVGnet [17]设计了一种级联 GAN 方法来生成说话面部视频,该视频对不同的面部形状、视角、面部特征和嘈杂的音频条件具有鲁棒性。

SadTalker [18]提出了一个新颖的系统,用于使用生成的逼真的3D运动系数,进行风格化的音频驱动单图像说话面部动画,改善了运动同步和视频质量,但仍然无法生成准确的表情和自然的运动序列。

使用源视频驱动音频的方法是最具竞争力的,因为它可以提供足够逼真的面部表情和自然运动信息。Wav2lip [8]、SyncTalkFace [20]、IP LAP [21]、DINET [22]都属于这一类别,主要关注如何生成更好的唇部同步和更高保真度的面部。

2.2 HyperNetwork
Hypernetwork 最初提出是为了生成一个更大网络的权重。在进化计算中,直接操作由数百万个权重参数组成的大型搜索空间是困难的。一种更有效的方法是进化一个较小的网络来生成一个更大网络的权重结构,以便搜索被限制在更小的权重空间内。

权重生成的概念易于用于可控生成任务。Chiang等人[27]利用它来控制3D场景表示的风格。UPST-NeRF[28]使用hypernetwork来控制3D场景的通用真实风格转换。

随着大型语言模型(LLMs)[29]–[32]和生成模型[33]的兴起,hypernetwork 也成为了微调 LLMs的 必要技能之一。本质上,hypernetwork 中生成权重参数以控制大型网络方法的想法与Audio Conditioned Diffusion Model[24]和Latent Diffusion Models中的Conditioning Mechanisms[33]相似,这两者都通过控制变量实现了解码的可控输出。然而,在本文的方法中,执行可控生成相对简单,而不是使用扩散模型进行生成。

2.3 Prior Based Face Restoration
面部修复是指从降质的面部图像中恢复高质量面部图像的过程。

面部修复分为无先验和基于先验的方法。

FSRNet使用一个粗糙的超分辨率(SR)网络来恢复粗糙图像,然后分别通过精细的SR编码器和先验面部传递图估计网络进行处理。最后,将图像特征和先验信息输入到精细的SR解码器中以获得结果。

在文献[37]中,它使用语义标签作为面部先验。语义标签是通过面部解析网络从输入图像或粗糙去模糊图像中提取的。最终的清晰图像是通过输入模糊图像和面部语义标签的拼接来由去模糊网络生成的。

Yin等人提出了一个联合对齐和面部超分辨率网络,以共同学习地标定位和面部修复。

在本文的工作中,作者使用从第一阶段生成的相对低质量面部检测到的地标草图作为输入,以指导 HRDecoder 实现面部增强,以渲染高保真度面部。

结论

本文提出一种用音频信息控制嘴唇运动的超网络,以在说话人脸生成任务中实现嘴唇同步。首先使用FaceEncoder从源视频中提取视觉人脸信息作为latent code,然后用HyperConv修改latent code,使唇动与音频同步。最后,FaceDecoder将修改并同步的latent code解码为视觉人脸内容。HyperNet使用音频特征作为输入更新权重参数。为了实现高保真的人脸绘制,提出了一种基于地标引导的人脸细节增强算法HRDecoder。因此,该方法有效地提高了唇部同步和人脸视觉质量。

复现

参考:【数字人】10、HyperLips | 使用 audio 实现对视频的高保真高清晰的唇部驱动-CSDN博客

  • 19
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值