让蒙娜丽莎活过来的视频驱动人像生成

让蒙娜丽莎活过来的视频驱动人像生成

This article was original written by XRBLS, welcome re-post, first come with https://jinfagang.github.io . but please keep this copyright info, thanks, any question could be asked via wechat: jintianiloveu

图像生成里面有一个有趣的子任务,即图像视频生成,简单来说就是给你一张静态的图片,你通过各种方法把它驱动起来。而其中一个思路就是用一段已经知道的视频,去生成和这段视频风格相似的视频。简单来说就是将一张静态的图片,通过一个video去驱动它,生成一模一样的表情和动作。

原理

我们其实很好奇这个网络模型的原理。事实上,图像动画包括生成视频序列,以便根据驾驶视频的运动对源图像进行动画处理。 这个框架无需使用任何注释或先前信息即可解决此问题关于要动画的特定对象。 一旦接受了一系列视频训练,同一类别的物体(例如,面孔,人体),这个方法可以应用此类的任何对象。 为此,将外观和运动分离使用自我监督的公式表示信息。 为了支持复杂的动作,使用由一组学习到的关键点以及它们组成的表示形式局部仿射变换。 生成器网络对在目标运动并结合从源图像中提取的外观和来自行车视频的运动。 这个框架在多样化方面得分最高基准以及各种对象类别。

在之前有Nvidia出品的vid2vid进行视频生成,但是那个方法并非直接端到达u端,比如需要先进性人脸关键点检测,或者需要进行姿态检测,然后再进行风格迁移和动作转换。

这篇文章采用方法是一种盲关键点法,不针对热定问题提取特定的关键带你,而是采用一种自监督学习方法进行自主学习,然后对学习到的盲点进行空间变换,同时学习动作与动作之间的场变换,最终合成动作连续的风格迁移视频。

代码

原始代码可以在神力平台获取:

http://manaai.cn

下载代码之后,直接运行:

python3 demo.py  --config config/vox-256.yaml  --driving_video data/a.mp4 --source_image a.png  --checkpoint vox-cpk.pth.tar --relative --adapt_scale

就可以对静态图片进行风格迁移。

对应的模型可以参考代码readme获取。

上车

如果你对GAN感兴趣,欢迎加入我们的QQ交流群1037662480,入群暗号:GAN。然后可以进一步加入我们的wx群。

http://t.manaai.cn

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值