清华朱军团队开源UniDiffuser:首个基于Transformer的多模态扩散大模型

9f595fdda60b0860392ff056e2c058eb.gif

©作者 | 机器之心编辑部

来源 | 机器之心

该论文提出了一个为多模态设计的概率建模框架 UniDiffuser,除了单向的文生图,还能实现图生文、图文联合生成、无条件图文生成、图文改写等多种功能。

据悉 GPT-4 将于本周发布,多模态将成为其一大亮点。当前的大语言模型正在成为理解各种模态的通用接口,能够根据不同模态信息来给出回复文本,但大语言模型生成的内容也仅仅局限于文本。另一方面,当前的扩散模型 DALL・E 2、Imagen、Stable Diffusion 等在视觉创作上掀起一场革命,但这些模型仅仅支持文到图的单一跨模态功能,离通用式生成模型还有一定距离。而多模态大模型将能够打通各种模态能力,实现任意模态之间转化,被认为是通用式生成模型的未来发展方向。

清华大学计算机系朱军教授带领的 TSAIL 团队近期公开的一篇论文《One Transformer Fits All Distributions in Multi-Modal Diffusion at Scale》,率先发布了对多模态生成式模型的一些探索工作,实现了任意模态之间的相互转化。

850f93d70b51a87cc3529fb679174fec.png

论文链接:

https://ml.cs.tsinghua.edu.cn/diffusion/unidiffuser.pdf

代码链接:

https://github.com/thu-ml/unidiffuser

该论文提出了一个为多模态设计的概率建模框架 UniDiffuser,并采用该团队提出的基于 transformer 的网络架构 U-ViT,在开源的大规模图文数据集 LAION-5B 上训练了一个十亿参数量的模型,使得一个底层模型能够高质量地完成多种生成任务(图 1)。简单来讲,除了单向的文生图,还能实现图生文、图文联合生成、无条件图文生成、图文改写等多种功能,大幅提升文图内容的生产效率,也进一步提升了生成式模型的应用想象力。

该论文一作鲍凡目前博士在读,是此前 Analytic-DPM 的提出者,凭借在扩散模型方面的优秀工作荣获 ICLR 2022 的 outstanding paper award(目前唯一一篇大陆单位独立完成的获奖论文)。

此外,我们之前还报道过 TSAIL 团队提出的 DPM-Solver 快速算法,目前仍是扩散模型最快的生成算法。多模态大模型正是该团队在深度概率模型的算法和原理方面上长期深入积累的一个集中展示。该工作的合作者包括人民大学高瓴人工智能学院的李崇轩、北京智源研究院的曹越等。

42ae3ea5ae361cddce67ec377caf0845.png

值得注意的是,该项目的论文和代码均已开源。

3b50380fe3fc8389032ef90cea03dd8f.png

效果展示

如下的图 8 展示了 UniDiffuser 在图文联合生成的效果:

37e31645e1331540d1ba7160eb29335f.png

如下的图 9 展示了 UniDiffuser 在文到图上的效果:

cc49f86680b78cb9c3c44557c47cc8f6.png

如下的图 10 展示了 UniDiffuser 在图到文上的效果:

4208287533b5995bc8a18928644df107.png

如下的图 11 展示了 UniDiffuser 在无条件图像生成上的效果:

e00fffc82d39286eafe9fb1a573826d1.png

如下的图 12 展示了 UniDiffuser 在图像改写上的效果:

9c8d631900ccf4f9f452abfef4594453.png

如下的图 15 展示了 UniDiffuser 能够实现在图文两个模态之间的来回跳跃 :

6d6b1594e44925899680bc451a00dd42.png

如下图 16 展示了 UniDiffuser 能对真实的两张图像进行插值:

1d2f27b85ec4350ec406a19eeb67c7f6.png

c25a383aeb58154665ea0f36615f3ae0.png

方法概览

研究团队将针对通用生成式模型的设计划分成了两个子问题:

1. 概率建模框架:是否能寻找到一个概率建模框架,能同时建模出模态之间所有的分布,例如图文之间的边缘分布、条件分布、联合分布等?

2. 网络架构:是否能设计出一个统一的网络架构,来支持各种不同模态的输入?

概率建模框架

针对概率建模框架,研究团队提出 UniDiffuser,一个基于扩散模型的概率建模框架。UniDiffuser 能够显示地建模多模态数据中包括边缘分布、条件分布、联合分布在内的所有分布。

研究团队发现,关于不同分布的扩散模型学习都可以统一成一个视角:首先向两个模态的数据分别加入某种大小的噪声,然后再预测两个模态数据上的噪声。其中两个模态数据上的噪声大小决定了具体的分布。例如,将文本的噪声大小设置为 0,则对应了文生图的条件分布;将文本噪声大小设置为最大值,则对应了无条件图像生成的分布;将图文噪声大小设置为相同,则对应了图文的联合分布。

根据该统一的视角,UniDiffuser 只需要将原始扩散模型的训练算法做少许的修改,便能同时学习上述的所有分布 — 如下图所示,UniDiffuser 同时向所有模态加噪而非单个模态,输入所有模态对应的噪声大小,以及预测所有模态上的噪声。

6ec79e69713fa3f1223e8906e75e0213.png

以双模态为例子,最终的训练目标函数如下所示:

59bfad1ef402994dea2fc4993358e59f.png

其中fa0040d4d8a7bfaa0e2f0fce9ef4e14c.png代表数据,c7e734a13df378d64f3ccae5c478cabc.png代表加入到两个模态中的标准高斯噪声,4266d7e26674f1e4e2a4a8c4a947cfb9.png代表两个模态加入噪声的大小(即时间),两者独立的从 {1,2,…,T} 中采样,3d0e621c38e626d234daa0bf5824db55.png为噪声预测网络,同时预测两个模态上的噪声。

在训练后,通过向噪声预测网络设置两个模态合适的时间,UniDiffuser 能够实现无条件、条件以及联合生成。例如将文本的时间设置为 0,可以实现文到图生成;将文本的时间设置为最大值,可以实现无条件图像生成;将图文时间设置为相同值,可以实现图文联合生成。

下面罗列了 UniDiffuser 的训练和采样算法,可见这些算法相对原始的扩散模型均只做了微小的改动,易于实现。

d904cfad7d80e701bbcb800bdd8502d3.png

此外,由于 UniDiffuser 同时建模了条件分布和无条件分布,因此 UniDiffuser 天然地支持 classifier-free guidance。下面的图 3 展示了 UniDiffuser 的条件生成和联合生成在不同的 guidance scale 下的效果:

78f55d2eb73af5c4a6bd7518b6828726.png

网络架构

针对网络架构,研究团队提出使用基于 transformer 的架构来参数化噪声预测网络。具体地,研究团队采用了最近提出的 U-ViT 架构。U-ViT 将所有的输入都视作 token,并在 transformer 块之间加入了 U 型连接。研究团队也采用了 Stable Diffusion 的策略,将不同模态的数据都转换到了隐空间再进行扩散模型的建模。值得注意的是,U-ViT 架构同样来自该研究团队,并且已被开源在:

https://github.com/baofff/U-ViT

e65976eb053498224195648e0be8ccda.png

c414ea0ae8e22b0a068af0b2107b388d.png

实验结果

UniDiffuser 首先和 Versatile Diffusion 进行了比较。Versatile Diffusion 是过去的一个基于多任务框架的多模态扩散模型。首先 UniDiffuser 和 Versatile Diffusion 进行了文到图上的效果比较。如下面的图 5 所示,在不同的 classifier-free guidance scale 下,UniDiffuser 在 CLIP Score 和 FID 指标上均要好于 Versatile Diffusion。

97a04fc6fe912c0271838bc23d4b87cf.png

然后 UniDiffuser 和 Versatile Diffusion 进行了图到文上的效果比较。如下面的图 6 所示,UniDiffuser 在图到文上有更好的 CLIP Score。

244af5ee0cfc8f5eb855e02ace78305f.png

UniDiffuser 也和专用的文到图模型在 MS-COCO 上进行了 zero-shot FID 的比较。如下面的表 1 所示,UniDiffuser 可以和专用的文到图模型取得可比的效果。

4d2b92a7acc9bd308074978dacb5701d.png

更多阅读

a35b4cd1e2646b34c262d6b5808fd340.png

a1749d1f108856617b5d5827131a7a4f.png

0f7fec1d7901e11c59b1befede3552c3.png

8d995817aa5f87f32e913fb2e685d2d8.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

b1594999996bd09081b068b5484d6f89.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

·

·

6baefd233c50e2a1c333d64f486239a6.jpeg

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值