TPAMI 2023 | 生成式AI与图像合成综述

2ef45caddf9e20c8c0bc5629c323fc86.gif

©作者 | 占方能

单位 | 马普所博后

研究方向 | 神经渲染、生成模型

生成式 AI 作为当前人工智能领域的前沿技术,已被广泛的应用于各类视觉合成任务。

随着 DALL-E2,Stable Diffusion 和 DreamFusion 的发布,AI 作画和 3D 合成实现了令人惊叹的视觉效果并且在全球范围内的爆炸式增长。这些生成式 AI 技术深刻地拓展了人们对于 AI 图像生成能力的认识,那么这些生成式 AI 方法是如何生成以假乱真的视觉效果?又是如何利用深度学习和神经网络技术来实现画作、3D 生成以及其他创造性任务的呢?我们的综述论文将会给您提供这些问题的答案。

c496a8650e8d1606466569c636e0a9a0.png

论文地址:

https://arxiv.org/abs/2112.13592

GitHub地址:

https://github.com/fnzhan/Generative-AI

项目地址:

https://fnzhan.com/Generative-AI/

在第一章节,该综述描述了多模态图像合成与编辑任务的意义和整体发展,以及本论文的贡献与总体结构。

在第二章节,根据引导图片合成与编辑的数据模态,该综述论文介绍了比较常用的视觉引导,文字引导,语音引导,还有近期 DragGAN 提出的控制点引导等,并且介绍了相应模态数据的处理方法。

607fedc3af50881709929a39b6f47a29.png

在第三章节,根据图像合成与编辑的模型框架,该论文对目前的各种方法进行了分类,包括基于 GAN 的方法,扩散模型方法,自回归方法,和神经辐射场(NeRF)方法。

acb87e6631f7a5889419c386bbe68105.png

由于基于 GAN 的方法一般使用条件 GAN 和 GAN 反演,因此该论文进一步根据 控制条件的融合方式,模型的结构,损失函数设计,多模态对齐,和跨模态监督进行了详细描述。

912781b77622baff6ac4e271f40ce81f.png

近期,火热的扩散模型也被广泛应用于多模态合成与编辑任务。例如效果惊人的 DALLE-2 和 Imagen 都是基于扩散模型实现的。相比于 GAN,扩散式生成模型拥有一些良好的性质,比如静态的训练目标和易扩展性。该论文依据条件扩散模型和预训练扩散模型对现有方法进行了分类与详细分析。

39d998428a4943e94310a3b3d116c4b2.png

ceb4a3dfc35dafce21bc56004c72e9cf.png

相比于基于 GAN 和扩散模型的方法,自回归模型方法能够更加自然的处理多模态数据,以及利用目前流行的 Transformer 模型。自回归方法一般先学习一个向量量化编码器将图片离散地表示为 token 序列,然后自回归式地建模 token 的分布。由于文本和语音等数据都能表示为 token 并作为自回归建模的条件,因此各种多模态图片合成与编辑任务都能统一到一个框架当中。

a33dae0a5f80fd7fe40888a575f12d30.png

以上方法主要聚焦于 2D 图像的多模态合成与编辑。近期随着神经辐射场(NeRF)的迅速发展,3D 感知的多模态合成与编辑也吸引了越来越多的关注。由于需要考虑多视角一致性,3D 感知的多模态合成与编辑是更具挑战性的任务。本文针对单场景优化 NeRF,生成式 NeRF 两种方法对现有工作进行了分类与总结。

0f989c84ac1f1f655612b991df3fafbf.png

随后,该综述对以上四种模型方法的进行了比较和讨论。总体而言,相比于 GAN,目前最先进的模型更加偏爱自回归模型和扩散模型。而 NeRF 在多模态合成与编辑任务的应用为这个领域的研究打开了一扇新的窗户。

df718ccc55eb0397edc61373fa55d270.png

在第四章节,该综述汇集了多模态合成与编辑领域流行的数据集以及相应的模态标注,并且针对各模态典型任务(语义图像合成,文字到图像合成,语音引导图像编辑)对当前方法进行了定量的比较。同时也对多种模态同时控制生成的结果进行了可视化。

f1899c955052d3da7582ea655808372e.png

在第五章节,该综述对此领域目前的挑战和未来方向进行了探讨和分析,包括大规模的多模态数据集,准确可靠的评估指标,高效的网络架构,以及 3D 感知的发展方向。

在第六和第七章节,该综述分别阐述了此领域潜在的社会影响和总结了文章的内容与贡献。

更多阅读

81bc39563357f43d90be5f8d04cf93c8.png

499ab5389de8f2c117d91edfb25f3c72.png

c7527bec9b29306a0612a8cf058a74b7.png

52ed051a296b9363d88f7929f8c536f8.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

95775d9ae8b97e6346b172e51a246489.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

·

69074c4481913fbb915f2cd19f3f034c.jpeg

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值