java多张图片合成一张_蒙娜丽莎“复活”了!jpg变gif,只需一张图片就能合成动画...

d100a1ab981047793dd3941bd1bd69dd.png
【新智元导读】还记得哈利・波特第一次来到霍格沃茨看到墙上那些既会动又会说话的挂画是多么惊讶吗?如果我们可以将挂画 “复活”,和 500 多年前的蒙娜丽莎来场穿越时空的对话会怎样呢?感谢 AI 技术,把画 “复活” 不再是梦!

名画《蒙娜丽莎的微笑》,会动了!

梦娜丽莎转过头,嘴里说着话,微微眨了眨眼,脸上带着温婉的微笑。

34885cec8235847b60cf085c6eded431.gif

是的,《哈利・波特》世界中” 会动的画 “魔法实现了!来自三星 AI 中心 (Samsung AI Center) 和莫斯科斯的 Skolkovo 科学技术研究所的一组研究人员,开发了一个能将让 JPEG 变 GIF 的 AI 系统。

7f43a5498dd574f230fcf61280ed61b2.gif
《哈利・波特》中守卫格兰芬多学院休息室的胖夫人画像

更牛逼的是,该技术完全无需 3D 建模,仅需一张图片就能训练出惟妙惟肖的动画。研究人员称这种学习方式为 “few-shot learning"。

当然,如果有多几张照片 ——8 张或 32 张 —— 创造出来动图效果就更逼真了。比如:

爱因斯坦给你讲物理:

cc02dae4dbd1a23dcc2bb246124b714c.gif

玛丽莲梦露和你 flirt:

242dcf1bad3ff17712f793d930cf5642.gif

本周,三星 AI 实验室的研究人员发表了一篇题为 “Few-Shot Adversarial Learning of Realistic Neural Talking Head Models” 的论文,概述了这种技术。该技术基于卷积神经网络,其目标是获得一个输入源图像,模拟目标输出视频中某个人的运动,从而将初始图像转换为人物正在说话的短视频。

e9dab9e67ad2dd6a59708c59defee00e.png
让图片活起来https://www.zhihu.com/video/1115247035992993792

论文一发表马上引起轰动,毕竟这项技术创造了巨大的想象空间!

类似这样的项目有很多,所以这个想法并不特别新颖。但在这篇论文中,最有趣的是,该系统不需要大量的训练示例,而且系统只需要看一次图片就可以运行。这就是为什么它能让《蒙娜丽莎》活起来。

3 个神经网络,让蒙娜丽莎活起来

这项技术采用 “元学习” 架构,如下图所示:

c9d59e3ddbe69e37f57fa13801b64941.png
图 2:“让照片动起来” 元学习架构

具体来说,涉及三个神经网络:

首先,嵌入式网络映射输入图像中的眼睛、鼻子、嘴巴大小等信息,并将其转换为向量;

其次,生成式网络通过绘制人像的面部地标 (face landmarks) 来复制人在视频中的面部表情;

第三,鉴别器网络将来自输入图像的嵌入向量粘贴到目标视频的 landmark 上,使输入图像能够模拟视频中的运动。

最后,计算 “真实性得分”。该分数用于检查源图像与目标视频中的姿态的匹配程度。

元学习过程:只需 1 张输入图像

研究人员使用 VoxCeleb2 数据集对这个模型进行了预训练,这是一个包含许多名人头像的数据库。在这个过程中,前面描述的过程是一样的,但是这里的源图像和目标图像只是同一视频的不同帧。

因此,这个系统不是让一幅画去模仿视频中的另一个人,而是有一个可以与之比较的 ground truth。通过持续训练,直到生成的帧与训练视频中的真实帧十分相似为止。

预训练阶段允许模型在只有很少示例的输入上工作。哪怕只有一张图片可用时,结果也不会太糟,但当有更多图片可用时,结果会更加真实。

实验和结果

研究人员使用 2 个数据集分别进行定量和定性评估:VoxCeleb1 数据集用于与基准模型进行比较,VoxCeleb2 用于展示他们所提出方法的效果。

研究人员在三种不同的设置中将他们的模型与基准模型进行了比较,使用 fine-tuning 集中的 1 帧、8 帧和 32 帧。

e9c17c3ec69446078bf3bf8efee90e63.png
表 1:few-shot learning 设置下不同方法的定量比较

结果如表 1 上半部分所示,基线模型在两个相似性度量上始终优于我们的方法。

不过,这些指标不能完全代表人类的感知,因为这两种方法都会产生恐怖谷伪影,从图 3 的定性比较和用户研究结果可以看出。

另一方面,余弦相似度与视觉质量有更好的相关性,但仍然倾向于模糊、不太真实的图像,这也可以通过表 1-Top 与图 3 中的比较结果看出。

3a5c670048ddcbcc2229140a55d0ce01.png
图 3:使用 1 张、8 张和 32 张训练图像时的三个示例。系统采用一个源图像 (第 1 列),并尝试将该图像映射到 ground truth 帧中的相同位置 (第 2 列)。研究人员将他们的结果与 X2Face、PixtopixHD 模型进行了比较。

大规模的结果。

随后,我们扩展可用的数据,并在更大的 VoxCeleb2 数据集中训练我们的方法。

下面是 2 个变体模型的结果:

8053f59ef017b37abc3285342d1c4814.png
图 4:在 VoxCeleb2 数据集中的最佳模型的结果。

同样,训练帧的数量是 T (左边的数字),第 1 列是示例训练帧。第 2 列是 ground truth 图像,后 3 列分别是我们的 FF feed-forward 模型及微调前后的结果。虽然 feed-forward 变体的学习更快速,但 fine-tuning 最终提供了更好的真实感和保真度。

最后,我们展示了的照片和绘画的结果。

eea9ca607f51ec3e8112155e65999fb5.png
图 5:让静态照片 “活” 起来

论文地址:

https://arxiv.org/pdf/1905.08233v1.pdf​arxiv.org

新智元 · AI_era

每日推送 AI 领域前沿学术解读、AI 产业最新资讯

戳右上角【+ 关注】↗↗

喜欢请分享、点赞吧

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值