CVPR 2021 | GAN的说话人驱动、3D人脸论文汇总

点击上方“机器学习与生成对抗网络”,关注星标

获取有趣、好玩的前沿干货!

一、说话人驱动(talking head)

1、Audio-Driven Emotional Video Portraits

  • 尽管此前一些方法在基于音频驱动的说话人脸生成方面已取得不错的进展,但大多数研究都集中在语音内容与嘴形之间的相关性上。人脸的情感表现是很重要的特征,但此前的方法总忽视这一点。

  • 这项工作提出“表情视频肖像” (Emotional Video Portraits,EVP),一种由音频驱动、具有动态情感的肖像视频合成系统。具体来说,提出交叉重构式的表情解耦技术,将语音分解为两个解耦空间,即与时长无关的情感空间和与时长相关的内容空间。解开的特征可推断出动态2D表情人脸。

2、Pose-Controllable Talking Face Generation by Implicitly Modularized Audio-Visual Representation

  • 针对任意人的、以其音频驱动的说话人脸生成研究方向,已实现了较准确的唇形同步,但头部姿势的对齐问题依旧不理想。

  • 此前的方法依赖于预先估计的结构信息,例如关键点和3D参数。但极端条件下这种估计信息不准确则效果不佳。本文主要针对的是,如何生成姿势可控的说话人脸。

3、One-Shot Free-View Neural Talking-Head Synthesis for Video Conferencing

  • 提出一种说话人脸的视频合成模型,并展示在视频会议中的应用。

  • 使用包含目标人物的源图像,以及驱动视频来合成源人物说话视频。运动信息基于一种关键点表示进行编码,其中特定于身份和运动相关的信息被无监督地解耦。

二、3D人脸相关

4、Inverting Generative Adversarial Renderer for Face Reconstruction

  • 给定单目人脸图像作为输入,3D 人脸几何重建旨在恢复相应的 3D 人脸网格mesh。这项工作引入一种生成对抗渲染器 (GAR),以面部法线贴图和潜码作为输入,渲染出逼真的人脸图像。

5、Normalized Avatar Synthesis Using StyleGAN and Perceptual Refinement

  • 引入一个基于 GAN 的框架,将照片中人脸数字化成标准3D形象。

  • 输入图像可以是一个微笑的人,也可以是在极端光照条件下拍摄的,作者声称所提方法均可生成高质量的人脸纹理模型。

6、pi-GAN: Periodic Implicit Generative Adversarial Networks for 3D-Aware Image Synthesis

  • 提出π-GAN/pi-GAN,用于高质量的 3D 感知的图像合成。

7、StylePeople: A Generative Model of Fullbody Human Avatars

  • 提出一种全身人体数字化的“化身”形象(full-body human avatars)方法。

  • saic-violet.github.io/style-people

三、人体运动合成

8、Scene-aware Generative Network for Human Motion Synthesis

  • 关注的是人体运动合成,此前方法往往有两方面局限:1)专注于姿势,却忽视了位置运动方面的因素,2)忽略了环境对人体运动的影响。

  • 本文考虑场景和人体运动之间的相互作用,目标是生成以场景和人体初始位置为条件的合理人体运动。基于GAN,使用判别器来保证人体运动与上下文场景、3D 到 2D 投影约束的兼容性。

上述论文可在 计算机视觉GAN 知识星球 打包下载

猜您喜欢:

等你着陆!【GAN生成对抗网络】知识星球!

超100篇!CVPR 2020最全GAN论文梳理汇总!

附下载 | 《Python进阶》中文版

附下载 | 经典《Think Python》中文版

附下载 | 《Pytorch模型训练实用教程》

附下载 | 最新2020李沐《动手学深度学习》

附下载 | 《可解释的机器学习》中文版

附下载 |《TensorFlow 2.0 深度学习算法实战》

附下载 | 超100篇!CVPR 2020最全GAN论文梳理汇总!

附下载 |《计算机视觉中的数学方法》分享

  • 2
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
3D点云生成的扩散概率模型》是CVPR 2021会议上提出的一种方法,用于生成逼真的3D点云模型。该方法通过建模点云中点之间的关系,以及点与空间中的位置关系,来生成点云数据。 传统的点云生成方法通常只考虑点与点之间的局部关系,而忽略了点与全局空间之间的关系。然而,在实际场景中,点云的分布往往受到全局空间的影响,因此需要考虑点与全局空间之间的关系。 该方法基于已有的点云数据集,首先利用卷积神经网络对点云进行特征提取,以获取点与其周围点的局部关系。然后,引入一个扩散概率模型,用于建模点与全局空间之间的关系。 扩散概率模型是一种概率模型,用于衡量点在全局空间中的分布。它基于点云生成的任务,通过最大似然估计来学习模型参数。在生成阶段,通过采样扩散概率模型,可以生成逼真的3D点云。 实验结果表明,该方法在各种点云生成任务上具有很好的效果。与传统方法相比,它能够更准确地还原真实场景中的点云分布,生成更逼真的模型。 综上所述,《3D点云生成的扩散概率模型》是一种基于点与全局空间之间关系的方法,用于生成逼真的3D点云模型。它通过引入扩散概率模型,能够更精确地模拟点云分布,生成更逼真的结果。这一方法在点云生成任务中具有广泛的应用前景。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值