51-46 MCDiff,可控视频合成的运动条件扩散模型

MCDiff是加州大学、Nvidia、Meta和Google联合发布的运动条件扩散模型,用于从一帧图像和笔画输入生成视频,允许用户指定内容和动态。该模型首先通过流补全预测稠密运动,然后使用扩散模型合成高质量未来帧,实现在笔画引导的视频合成中的先进视觉质量。通过在多个大型数据集上的实验,MCDiff展示了解决稀疏运动输入模糊性和视频合成质量的能力。
摘要由CSDN通过智能技术生成

23年4月,加州大学、Nvidia、Meta和Google联合发布了MCDiff模型。这是继DragNUWA之后,咱们介绍的第二篇Motion-guiding类视频生成模型。

Abstract

扩散模型的最新进展极大地提高了合成内容的质量和多样性。为了利用扩散模型的表达能力,研究人员探索了各种可控机制,允许用户直观地指导内容合成过程。尽管最新的努力主要集中在视频合成上,但缺乏有效的方法来控制和描述所需内容和动作。为了应对这一差距,我们引入了 MCDiff,这是一种条件扩散模型,它从一帧图像和一组笔画开始生成视频,允许用户指定用于合成的预期内容和动态。为了解决稀疏运动输入的模糊性,获得更好的合成质量,MCDiff首先利用流补全模型flow completion model根据视频帧的语义理解和稀疏运动控制来预测稠密视频运动。然后,扩散预测模型G合成高质量的未来帧,形成输出视频。我们定性和定量地证明了MCDiff在笔画引导的可控视频合成中实现了最先进的视觉质量。MPII人体姿势的其他实验进一步展示了我们的模型在不同内容和运动合成方面的能力。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

深圳季连AIgraphX

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值