最强开源多模态生成模型MM-Interleaved:首创特征同步器,刷新多项SOTA

304f4a5229adc8dacad26b862e8c6d3b.gif

©作者 | 机器之心编辑部

来源 | 机器之心

过去几个月中,随着 GPT-4V、DALL-E 3、Gemini 等重磅工作的相继推出,「AGI 的下一步」—— 多模态生成大模型迅速成为全球学者瞩目的焦点。

想象一下,AI 不仅会聊天,还长了「眼睛」,能看懂图片,甚至还会通过画画来表达自己!这意味着,你可以和它们谈天说地,分享图片或视频,它们也同样能用图文并茂的方式回应你。

最近,上海人工智能实验室联合香港中文大学多媒体实验室(MMLab)、清华大学、商汤科技、多伦多大学等多家高校、机构,共同发布了一个多才多艺的最强开源多模态生成模型 MM-Interleaved,借助全新提出的多模态特征同步器刷新多项任务 SOTA。它拥有对高分辨率图像细节和微妙语义的精准理解能力,支持任意穿插的图文输入和输出,带来了多模态生成大模型的崭新突破。

a334378ac16b05fccf8cdf5965e1e38f.jpeg

论文地址:

https://arxiv.org/pdf/2401.10208.pdf

项目地址:

https://github.com/OpenGVLab/MM-Interleaved

模型地址:

https://huggingface.co/OpenGVLab/MM-Interleaved/tree/main/mm_interleaved_pretrain

MM-Interleaved 可以轻松编写引人入胜的旅游日志和童话故事,准确理解机器人操作,就连分析电脑和手机的 GUI 界面、创作独特风格的精美图片都不在话下。甚至,它还能教你做菜,陪你玩游戏,成为随时听候指挥的个人助理!话不多说,直接看效果。

bd2253d35c850660447bcdf8647507f0.png

轻松理解复杂多模态上下文

MM-Interleaved 可以根据图文上下文自主推理生成符合要求的文本答复,它既能算水果数学题:

03b28f683e01b8a2a9c5601b9eb88580.jpeg

也能结合常识推理出 Logo 图像对应的公司并进行介绍:

6f917b8a6b5e6fe8fd00c93a7384d29a.jpeg

还能精确识别用红色圆圈标注出的手写文字内容:

98765605acfdd46bdc89b0a13fdd7fdb.jpeg

此外,模型也能直接理解通过序列图像表示的机器人动作:

3c090a7b151aed8fd8587b70feb160e9.jpeg

以及在 Minecraft 中如何建造围栏这样的游戏操作:

65e52c5f725f9e549f0690420f4688a8.jpeg

甚至能结合上下文,手把手地教用户如何在手机 UI 界面上配置灰度:

eb51b8d91f21fb6a91d64f4a21d02290.jpeg

以及精准定位找到那架藏在后面的小飞机:

a43dc450491b81b86748b70a4b9573df.jpeg

6a1442c55e3f30aeaa4e8f3ff04ba26d.png

脑洞全开生成不同风格图像

MM-Interleaved 模型同样可以出色地完成各种复杂的图像生成任务。比如根据用户提供的详细描述生成一张三角钢琴的剪影:

fcd360572c832425f759ac613fa77427.jpeg

或者当用户以多种形式指定所需生成的图像应当包含的物体或风格时,MM-Interleaved 框架也可轻松应对。

比如生成一张水彩风格的大象:

106708f02a5912d21bbf176ebb09e1c3.jpeg

按照狗的风格生成一张猫的画:

b7663c97b984736955482a9f076e1e8e.jpeg

在向日葵花丛里的一座木房子:

c5a40ec4297d6c8c8920b5ed3fe6637c.jpeg

以及在生成海浪图像时,根据上下文智能推断相应的风格。

图像生成兼顾空间一致性

更令人惊喜的是,MM-Interleaved 还具备根据输入的分割图和对应的文本描述生成图像的能力,并确保生成的图像与分割图在空间布局上保持一致。

8a63fedbe3d2e0753a426ac63073674e.jpeg

这一功能不仅展示了模型在图文生成任务中的卓越表现,同时也为用户提供了更加灵活和直观的操作体验。

自主生成图文并茂的文章

此外,只需提供一个简单的开头,MM-Interleaved 就能自主进行续写,生成语义连贯、图文并茂的文章,题材多样。

无论是关于一朵玫瑰的童话故事:

fc1ad08a22021cd69cd329461e38ab38.jpeg

教你制作苹果汁的教程指南:

1e779f49526f9fdad2f818f1a4490b63.jpeg

还是卡通动漫中的情节片段:

f4e29949943924adb7e71538b482c37a.jpeg

MM-Interleaved 框架都展现出了卓越的创造力。这使得 MM-Interleaved 框架成为了一个无限创意的智能合作者,能够帮助用户轻松打造引人入胜的图文作品。

MM-Interleaved 致力于解决图文交错多模态大模型训练中的核心问题,通过深入研究提出了一种全新的端到端预训练框架。

基于 MM-Interleaved 训练的模型,在参数量更少、不使用私有数据的情况下,不仅在多个零样本多模态理解任务上表现优越,领先于国内外最新研究工作,如 Flamingo、Emu2 等。

还能进一步通过监督微调的方式,在视觉问答(VQA),图像描述(image caption)、指代理解(referring expression comprehension)、图生图(segment-to-image generation)、视觉故事生成(visual storytelling)等多个下游任务上取得更为优异的综合性能。

目前模型的预训练权重及相应代码实现均已在 GitHub 开源。

4e22a2bef8d018cc03f51b6716399a97.jpeg

多模态特征同步器携手全新端到端训练框架

140398b45f9f0ed20c11d71fc85d33a8.jpeg

MM-Interleaved 提出了一种全新的端到端训练框架,专门面向图文交错数据。

该框架支持多尺度的图像特征作为输入,不对图像和文本的中间特征添加任何额外约束,而是直接采用预测下一个文本 token 或下一张图像的自监督训练目标,实现单阶段的统一预训练范式。

与以往方法相比,MM-Interleaved 不仅支持交错生成文本和图像,还能高效捕捉图像中更多的细节信息。

c5ef398e326e76b92e494da05bc604bc.jpeg

此外,MM-Interleaved 的关键实现还包括一个通用的多模态特征同步器(Multi-modal Feature Synchronizer)。

该同步器能够动态注入多张高分辨率图像的细粒度特征到多模态大模型和图像解码器中,实现了对文本和图像的解码生成的同时进行跨模态的特征同步。

这一创新设计使得 MM-Interleaved 为多模态大模型领域的发展注入了新的活力。

526e3d167414c63d9ac2ab655301e4b3.png

多项任务性能领先验

697cd661bfd06f9f7902dd01d1fc48d3.jpeg

fdfb0cdd2f8f8c6381ec6d490f3bdcfe.jpeg

如表 1 和表 3 所示,MM-Interleaved 在零样本多模态理解和生成任务上均取得了卓越的性能。这一成就不仅证明了该框架的强大能力,也突显了其在应对多样化任务时的强大通用性。

011a59cc2a5b3a26b59081d5ca9ba150.jpeg

29e1b40c2cbc3b5bfdfea32b3de6640c.jpeg

表 2 和表 4 展现了 MM-Interleaved 在进行进一步微调后的实验结果,其在指代理解、基于分割图生成图像、图文交错生成等多个下游任务上的性能也十分优异。

这表明 MM-Interleaved 不仅在预训练阶段表现出色,而且在具体任务微调后依然能够保持领先地位,从而为多模态大模型的广泛应用提供了可靠的支持。

db5e6ea1d26d871ed2ed14712c2519ff.png

结论

MM-Interleaved 的问世标志着多模态大模型的发展朝着实现全面端到端的统一建模和训练迈出了关键一步。

这一框架的成功不但体现在其预训练阶段所展现的卓越性能,而且还体现在微调后在各个具体下游任务上的全面表现。

其独特的贡献不仅在于展示了强大的多模态处理能力,更为开源社区构建新一代多模态大模型开启了更为广阔的可能性。

MM-Interleaved 也为未来图文交错数据的处理提供了新的思路和工具,为实现更加智能、灵活的图文生成和理解奠定了坚实基础。

我们期待看到这一创新为更多领域相关应用带来更多惊喜。

更多阅读

f6c13c83cfd6c8186d29fa774d22135b.png

9ecf31764e4ce5ecdca1191535e191dd.png

10795814853bec342a6f5522aba413e8.png

ef2ebddcd2c7057943c67694dab6f200.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

ac4d013126b0a6236a3756aaa201ee8d.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

·

·

a5e666ed6dacc353cb4727f0966b56ea.jpeg

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值