新加坡国立大学提出NExT-GPT:「大一统」通用多模态大模型

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【多模态和Transformer】交流群

转载自:新智元 | 编辑:好困

【导读】继各类输入端多模态大语言模型之后,新加坡国立大学华人团队近期开源了一种支持任意模态输入和任意模态输出的「大一统」多模态大模型,火爆AI社区。

在CVer微信公众号后台回复:NEXT,可以下载本论文pdf、代码

继ChatGPT引爆2023年的AI潮后,各类开源LLM也陆续问世。

紧接着,为了更好地模拟世界,研究人员又将纯语言的大模型,扩展到了处理语言之外的「多模态大语言模型」——

诸如支持图像类的MiniGPT-4、BLIP-2、Flamingo、InstructBLIP等,支持视频类的Video-LLaMA, PandaGPT等,以及支持声音类的SpeechGPT等等。

然而目前的多模态LLM,距离真正人类级别的AGI,总感觉少了点「那味儿」。

「大一统」通用多模态大模型来了

正当大家都在期待OpenAI未来要发布的GPT-5是否实现了任意模态大一统功能时,来自于新加坡国立大学NExT++实验室的华人团队出手了!

就在最近,团队正式开源了一款「大一统」通用多模态大模型——NExT-GPT,可以支持任意模态输入到任意模态输出。

目前,NExT-GPT的代码已经开源,并且还上线了Demo系统。

0dc5eac38883c6c1892e8be77b979949.png

在CVer微信公众号后台回复:NEXT,可以下载本论文pdf、代码

项目地址:https://next-gpt.github.io

代码地址:https://github.com/NExT-GPT/NExT-GPT

论文地址:https://arxiv.org/abs/2309.05519

NExT-GPT一经发布,便受到了AI社区的大量关注。

有网友表示,NExT-GPT标识着全能型LLM的到来:

8942f7f7839e92322911b7109ad41480.png

65a9d151998f942848c4b62176ab29a2.png

e91293f287048ab741ca0ed1304cb16c.png

也有网友赞叹,这才是未来的LLM大趋势(大一统任意模态输入输出的LLM):

9f3b64793c8c7016de532be38eb49e66.png

据作者自述,实验室在多模态学习方向的研究有着多年的耕耘,具有深厚的积累。而NExT-GPT的取名也双关了实验室的名字以及GPT of Next generation的寓意。

话不多说,直接上效果

接下来,咱就来看看NExT-GPT到底可以实现哪些功能!

- 文本 → 文本 + 图像 + 音频

- 文本 + 图像 → 文本 + 图像 + 视频 + 图像

- 文本 + 视频 → 文本 + 图像

- 文本 + 视频 → 文本 + 音频

- 文本 + 音频 → 文本 + 图像 + 视频

- 文本 → 文本 + 图像 + 音频 + 视频

- 文本 → 文本 + 图像

- 文本 + 视频 → 文本 + 图像 + 音频

- 文本 → 文本 + 图像 + 音频 + 视频

- 文本 → 文本 + 图像

可看到,NExT-GPT能够准确理解用户所输入的各类组合模态下的内容,并准确灵活地返回用户所要求的甚至隐含的多模态内容,从而输出图像、视频以及声音。

其中,常见的图生文、图生视频、看图像/声音/视频说话、图像/声音/视频问答等问题统统不在话下,统一了跨模态领域的大部分常见任务,做到了真正意义上的任意到任意模态的通用理解能力。

此外,作者还给出一些定量的实验结果验证,感兴趣的同学可以在论文中阅读详细内容。

技术点解析

众所周知,人类的认知和沟通必须无缝地在任何信息模态之间进行转换——我们不仅仅可以理解多模态内容,还能够以多模态的方式灵活输出信息。

但现有的大语言模型,一方面是局限于某种单一模态信息的处理,而缺乏真正「任意模态」的理解;另一方面是只关注于多模态内容在输入端的理解,而不能以任意多种模态的灵活形式输出内容。

那么,NExT-GPT又是如何实现任意模态输入到任意模态输出的呢?

原理其实非常简单,作者甚至表示在技术层面上「没有显著的创新点」——

通过有机连接现有的开源1)LLM,2)多模态编码器和3)各种模态扩散解码器,便构成了NExT-GPT的整体框架,实现任意模态的输入和输出,可谓大道至简。

205eec0b9e4189c7ca4f380d3fa1a4c2.png

整体来说,模型呈现为一个「编码端-推理中枢-解码器」三层架构:

- 多模编码阶段:

利用已开源的编码器对各种输入模态进行编码,然后通过一个投影层将这些特征投影为LLM所能够理解的「类似语言的」表征。中文作者采用了MetaAI的ImageBind统一多模态编码器。

- 推理中枢阶段:

利用开源LLM作为核心大脑来处理输入信息,进行语义理解和推理。LLM可以直接输出文本,同时其还将输出一种「模态信号」token,作为传递给后层解码端的指令,通知他们是否输出相应的模态信息,以及输出什么内容。作者目前采用了Vicuna作为其LLM。

- 多模生成阶段:

利用各类开源的图像扩散模型、声音扩散模型以及视频扩散模型,接收来自LLM的特定指令信号,并输出所对应的模型内容(如果需要生成的指令)。

在推理时,给定任意组合模态的用户输入,通过模态编码器编码后,投影器会将其转换为特征传递给LLM(文本部分的输入将会直接出入到LLM)。

然后LLM将决定所生成内容,一方面直接输出文本,另一方面输出模态信号token。

如果LLM确定要生成某种模态内容(除语言外),则会输出对应的模态信号token,表示该模态被激活。

54e093345330cf4629b676b79539e7de.png

技术示意图

文中作者指出,NExT-GPT可能并不是实现任意模态输入到任意模态输出功能的首个工作。目前有两类前驱工作:

- 一类是不久前所发布的CoDi模型,其整合了各种模态的diffusion模型,可以同时处理和生成各种组合的模态内容。

然而作者指出,CoDi由于缺乏LLMs作为其核心部件,其仅限于成对(Parallel)内容的输入和生成,而无法实现复杂的内容推理和决策,根据用户输入的指令灵活相应。

- 另一类工作则试图将LLMs与现有的外部工具结合,以实现近似的「任意多模态」理解和生成,代表性的系统如Visual-ChatGPT和HuggingGPT。

但作者指出,由于这类系统在不同模块之间的信息传递完全依赖于LLM所生成的文本,其割裂、级联的架构容易不可避免地引入了噪音,降低不同模块之间的特征信息传递效用。并且其仅利用现有外部工作进行预测,缺乏一种整体的端到端训练,这对于充分理解用户的输入内容和指令是不利的。

相比之下,NExT-GPT却良好地解决了上述的现有工作的问题——既保证具有较好的学习成效,又全面降低、控制学习成本。

关键技术

- 关键点 1:低成本实现复杂推理+多模态in和多模态out

如前文所述,不仅要继承LLM所具备的复杂内容理解和推理能力,还需要实现任意模态的输入和输出。

若考虑从零开始构建整个系统,代价将会巨大(除非是大厂才能承担成本),也不利于开源和传播。考虑到现有的大模型已经基本实现了多模态的输入,为实现全能的大一统多模态能力,因此最关键的一点在于高性能的多模态输出。

为此,NExT-GPT完全基于现有开源的高性能模块(比如目前性能最强的扩散模型),充分站在巨人的肩膀上,以最低的成本实现大一统多模态大模型的构建目标(实验室可承担级别的成本)。

- 关键点 2:高效率端到端训练和模态对齐学习

妥当的、端到端的系统训练是NExT-GPT区别于现有其他组合型统一大模型系统最重要的一点,也是保证NExT-GPT具有优秀性能的前提。另一方面,还需要充分对齐系统中的所有模态的特征表征。

研究亮点

首先,NExT-GPT考虑分别在编码层-LLM之间以及LLM-解码层之间插入投影层(Projection Layers)。

在冻结大规模参数的基座「编码层-LLM-解码层」情况下,仅去训练参数量极低的投影层部分(以及在指令微调时基于LoRA的LLM低代价更新),作者实现了仅仅1%参数量的训练代价。

d9ad3ad86805f201647059c717c6249b.png

具体通过1)以LLM为中心的编码端多模态对齐学习,和2)局部微调的解码端指令跟随增强学习实现。

558c004450633f2e055d8382faf07884.png

另外,对于多模态大模型,为确保其能够充分忠于用户指令而响应,进一步的指令调整(IT)是非常有必要的。

不同于现有的多模态大模型其输出端仅涉及到文本,NExT-GPT系统的输入和输出端同时覆盖了各类模态信息。

为此,作者提出了一种模态切换指令微调学习(Modality-switching Instruction Tuning,MosIT),技术内涵如下图所示。

同时,由于现存的多模态指令微调数据集都无法满足任意多模态LLM场景(即MosIT)的要求,作者构建了一套MosIT数据集。

该数据涵盖了各种多模态输入和输出,提供了必要的复杂性和变异性,帮助提升NExT-GPT获得优越的多模态指令跟随和相应能力。

fdad75364057bbd0732458f65d7d322f.png

结论与展望

基于NExT-GPT,后续的研究工作可以考虑以下几个方面:

1. 模态与任务扩展:

受限于现有资源,目前作者所开源的NExT-GPT系统仅支持四种模态:语言、图像、视频和音频。

作者表示,后续会逐步扩展到更多的模态(例如,网页、3D视觉、热图、表格和图表)和任务(例如,对象检测、分割、定位和跟踪),以扩大系统的普遍适用性。

2. 考虑更多基座LLM:

目前作者实现了基于7B版本的 Vicuna LLM,其表示下一步将整合不同大小的LLM,以及其他LLM类型。

3. 多模态生成策略:

目前版本的NExT-GPT系统仅考虑了基于扩散模型的纯输出方式的多模态输出。

然而生成模式容易输出错误幻想内容(Hallucination),并且输出内容的质量往往容易受到扩散模型能力的限制。

因此,进一步提升扩散模型的性能很关键,这能直接帮助提高多模态内容的输出质量。

另外,实际上可以整合基于检索的方法来补充基于生成的过程的弊端,从而提升整体系统的输出可靠性。

4. 降低多模态支持成本:

NExT-GPT考虑了ImageBind来统一多种模态的编码,从而节省了在编码端的代价。而对于多模态输出端,作者简单地集成了多个不同模态的扩散模型。

在之后的研究中,可以考虑进一步降低对更多模态的支持的成本。尤其是,如何防止随着模态的增加而动态增加解码器。

比如,可以考虑将一些支持不同模态生成(但具有模态共性)的扩散模型进行复用。

5. MosIT数据集扩展:

目前NExT-GPT所使用的MosIT数据集规模受限,这也会限制其与用户的交互表现。后续研究可以进一步提升模态切换指令微调学习策略以及数据集。

总体上,NExT-GPT系统展示了构建一个通用大一统多模态的AI模型的可能性,这将为AI社区中后续的更「人类水平」的人工智能研究提供宝贵的借鉴。

参考资料:

https://github.com/NExT-GPT/NExT-GPT

在CVer微信公众号后台回复:NEXT,可以下载本论文pdf、代码

点击进入—>【多模态和Transformer】交流群

ICCV / CVPR 2023论文和代码下载

 
 

后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:ICCV2023,即可下载ICCV 2023论文和代码开源的论文合集
多模态和Transformer交流群成立
扫描下方二维码,或者添加微信:CVer333,即可添加CVer小助手微信,便可申请加入CVer-多模态或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF等。
一定要备注:研究方向+地点+学校/公司+昵称(如多模态或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer333,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉,已汇集数千人!

▲扫码进星球
 
 
▲点击上方卡片,关注CVer公众号
整理不易,请点赞和在看b07826c21a44149cda7dff1c240f262a.gif
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值