VASA-1: Lifelike Audio-Driven Talking Faces Generated in Real Time

本文是深度学习相关文章,针对《VASA-1: Lifelike Audio-Driven Talking Faces Generated in Real Time》的翻译。

VASA-1:实时生成的逼真音频驱动的会说话的人脸

摘要

我们介绍了VASA,这是一个在给定单个静态图像和语音音频剪辑的情况下,通过吸引人的视觉情感技能(VAS)生成逼真的会说话的人脸的框架。我们的首款模型VASA-1不仅能够产生与音频完美同步的嘴唇动作,还能够捕捉大量面部细微差别和自然的头部动作,有助于感知真实性和生动性。核心创新包括一个基于扩散的整体面部动力学和头部运动生成模型,该模型在面部潜在空间中工作,以及使用视频开发这种富有表现力和解开纠缠的面部潜在空间。通过广泛的实验,包括对一组新指标的评估,我们表明我们的方法在各个维度上都显著优于以前的方法。我们的方法提供了具有逼真面部和头部动态的高视频质量,还支持以高达40 FPS的帧速率在线生成512×512视频,启动延迟可忽略不计。它为模拟人类对话行为的逼真化身的实时互动铺平了道路。项目网页:https://www.microsoft.com/en-us/research/project/vasa-1/

1 引言

2 相关工作

3 方法

4 实验

5 结论

总之,我们的工作提出了VASA-1,这是一种音频驱动的会说话的人脸生成模型,以其从单个图像和音频输入中高效生成逼真的嘴唇同步、生动的面部表情和自然的头部运动而闻名。它在提供视频质量和性能效率方面显著优于现有方法,在生成的人脸视频中展示了很有前途的视觉情感技能。技术基石是一个创新的整体面部动力学和头部运动生成模型,该模型在一个富有表现力和解开纠缠的面部潜在空间中工作。
VASA-1的进步有可能重塑人类与人工智能在通信、教育和医疗保健等各个领域的互动。可控调节信号的集成进一步增强了模型对个性化用户体验的适应性。
局限性和未来的工作。我们的方法仍有一些局限性。目前,它只处理人体区域直到躯干。延伸到整个上半身可以提供额外的功能。在使用3D潜在表示时,缺乏更明确的3D人脸模型可能会导致神经渲染导致的纹理粘贴等伪影。此外,我们的方法没有考虑头发和衣服等非刚性元素,这可以通过更强的视频先验来解决。未来,我们还计划融入更多样的谈话风格和情感,以提高表达力和控制力。

6 社会影响和负责任的人工智能考虑

  • 3
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值