2025年Next Token Prediction范式会统一多模态吗?

介绍一下最近和来自北大,北航,港大,国科大等学校的同学以及阿里, Microsoft, Humanify等研究机构呕心沥血的综述工作《Next Token Prediction Towards Multimodal Intelligence: A Comprehensive Survey》

作者: MMNTP Team
编辑:「深度学习自然语言处理」 公众号
论文: https://arxiv.org/abs/2412.18619
Github: https://github.com/LMM101/Awesome-Multimodal-Next-Token-Prediction

e06700a48bec6ee7a96076ed59f207cf.jpeg

简介

892202a6864feddb515072ac84204ed0.png过去一两年时间里,多模态(Multimodal)领域涌现了大量基于Next Token Prediction(NTP)的模型,以下简称为MMNTP,这些模型在多模态理解与生成任务上取得了显著的进展。以图片模态举例,有以LLaVA, QwenVL为代表的图片理解模型,也有以Unified-IO系列,Chameleon,VAR为代表的基于离散Token的图片生成模型以及融合NTP和Diffusion架构的Transfusion,MAR等模型。音频部分则有Moshi为代表的基于NTP的音频理解和生成模型。a9d182b292aa0f949c49770a2a4bd38f.png本文采用全新的自下而上视角,从NTP范式的构建出发,全面探讨了以下几个核心方面:

  • 多模态的Tokenization技术

  • MMNTP模型架构设计

  • 训练方法与推理策略

  • 性能评测体系

  • 现存挑战与未来方向

综述的完整目录如下:1d79bd25a60c3d400668891843f125a5.png

多模态的Tokenization

我们认为多模态的Tokenization是MMNTP的基石和最重要的部分,它将各种模态的信息(如图像、视频和音频片段)分解为最小的单元序列(Token),以便Transformer结构为基础的NTP模型学习。Tokenization方法可以分为离散(Discrete Tokenization)和连续(Continuous Tokenization)两种。离散标记化通过量化将原始信息映射到有限的离散空间,而连续标记化则不涉及量化,保留了数据的连续性质。下面的图给出了两种方式的示意图。c6046c636b7260b363bdcf1a5e34459b.png

Tokenizer训练方法

f8b16d442037c92af85a08a3a7b904cb.png本节针对图片,视频,音频领域的Tokenization训练方法进行了详细的梳理和比较。首先总结了几种常见的训练方法,例如对比学习,自编码器等,以及这些方法在不同模态上的应用与针对不同模态特点的改进,并按照不同的训练方法归纳整理了不同类型的Tokenizers,如下表所示:52186e9adea2c7026952f63acd8c6383.png我们以表示能力(representation)和重建能力(reconstruction)为基点,重点讨论了Tokenizers在训练时存在的挑战,例如离散型编码器存在的编码表塌陷,信息损失的问题以及一些改进措施例如FSQ,LFQ等方案,以及以CLIP为代表的连续型编码器中主要存在的语义对齐,编码效率,以及对于不同模态的数据,大家提出了哪些针对性的改进措施。

MMNTP模型

eb7c54910394467dbbea4270dd1dbe61.pngMMNTP模型一般结构如上图所示,它主要由骨干模型(一般是一个Transformer模型),以及不同模态的Tokenizer与De-Tokenizer组成。Tokenizer将不同模态的信息转换为Token序列,De-Tokenizer则将Token序列转换为原始模态的信息。fb58677ef0463fa011b85b365f2a4761.png如上图所示,我们将MMNTP模型进一步分为两类,组合式(Compositional)和统一(Unified)式。组合模型依赖于强大的外部编码器例如CLIP和解码器例如SD3来理解和生成多模态信息,而统一模型则使用轻量级的编码器和解码器例如VQVAE,将大部分理解和生成任务交给骨干模型。本文对这两种模型结构进行了详细讨论,并比较了它们的优缺点。9d0a3ed8cbd26bea7e4611a8176ab3cc.png对于不同的多模态任务来说,MMNTP模型可以以一种统一的方式处理不同任务,区别之处在于不同任务的输入输出不同。上图以图片模态为例子,列出来了同一个MMNTP模型结构如何进行图片理解例如VQA,图片生成,以及基于文字指令的图片编辑任务。只需要替换输入输出的组合形式,同一个模型架构就可以完成不同的任务,这体现了MMNTP模型在多模态任务上的统一性。本文针对图片,视频,音频模态的MMNTP模型进行了详细的讨论,并根据结构类型进行了梳理,如下表所示。f754c109ab764547d58adebb42ef01ad.png

训练范式

训练任务的类型

e180e30056f4bf80aae670c74e3f33b4.png一旦将不同模态的内容转化为序列化的标Tokens,就可以使用统一的骨MMNTP模型来训练,以解决各种理解和生成任务。本文将训练任务按照生成的Token类型不同分为两类,离散Token预测和连续Token预测。二者的区别在于预测的token是离散的还是连续的,这会对应不同的训练任务,以及特殊的输出头的结构。例如多模态理解任务往往以语言作为输出,则需要使用语言模型头作为输出头,进行离散Token预测。如果将Diffusion模型和NTP模型结合,则需要使用Diffusion模型头作为输出头,进行连续Token预测。

训练阶段

b1a709dcc17330477868f7832b232bb9.png和语言模型类似,MMNTP模型的训练也可以分为三个阶段,如上图所示,分别是模态对齐预训练,指令微调和偏好学习。这里的预训练阶段,通常指的是在多模态数据-文本对数据上进行预训练,以将不同模态的信息对齐到语言空间。指令微调阶段是针对不同的下游任务,例如理解和生成类任务,用标注好的数据进行训练。偏好学习在MMNTP模型中的研究刚刚起步,主要将模型的输出和人类的偏好进行对齐。本文详细这三个阶段的相关研究工作,并根据任务类型进行了归纳整理。

测试时的Prompt工程

6250feef6c0d7a4cff323b05a01c6ac4.pngPrompt工程是提升LLM模型效果的重要手段,在MMNTP模型中,借助了LLM继基座模型的能力,Prompt工程同样重要。本文对MMNTP模型中的Prompt工程进行了详细的讨论,如上图所示,分为多模态的上下文学习(Multimodal In-Context Learning)和多模态思维链(Multimodal Chain-of-Thought)两种方法。e5532fcbc27f05c078795495ef99d7f7.jpeg如上图所示,多模态的上下文学习指的是在输入中加入多模态任务的例子,以帮助模型更好地理解任务。多模态思维链则是指在输入中加入一些思维链的提示,例如“感知”,“推理过程”等,以促使模型更好地进行多模态推理。我们将这些方法进行整理,如下表所示。4d3a927e27a2cb9db3fb28918aebc044.png

训练数据集与性能评测

0950c37548d5487cccf0f78576aafdd8.png在综述中,我们还对MMNTP模型的训练数据集进行了详细的讨论,包括数据集的构建,数据集的规模,以及数据集的多样性。同时,我们也比较了NTP模型和非NTP模型在多模态任务上的表现,如上图所示,在大规模理解任务例如VQAv2,MMMU上,NTP模型表现全面优于非NTP模型。在生成任务评测数据例如Imagenet,GenEval,我们观察到NTP模型在和纯Diffusion取得了不相上下的效果,甚至在某些任务上表现更好,这展示了NTP模型在统一不同多模态任务上的潜力。

存在的挑战

本文提出了四个目前尚未解决的挑战,主要源于MMNTP训练范式。这些挑战包括:

  1. 如何更好地利用无监督的多模态数据来扩展MMNTP模型

  2. 克服多模态干扰并增强协同作用

  3. 提高MMNTP模型的训练和推理效率

  4. 将MMNTP作为更广阔任务的通用接口。

这些挑战的解决对于MMNTP范式实现多模态智能的发展至关重要。

小结

本文从NTP范式的视角出发,全面梳理了多模态领域的最新进展。从Tokenization到模型架构,从训练范式到性能评测,我们希望这份工作能为研究者们提供一个清晰的研究全景图。

在2025年,随着MMNTP技术的不断发展,我们期待看到更多创新性的工作能够突破现有的挑战,推动多模态智能向前发展。欢迎大家引用论文并且:

  • 在评论区分享你的想法和见解

  • 如果发现任何问题或有补充建议,欢迎邮件联系我们,我们会在新版本的综述中进行更新

  • 如果觉得这份工作对你有帮助,别忘了给我们的GitHub仓库(https://github.com/LMM101/Awesome-Multimodal-Next-Token-Prediction)点个star


备注:昵称-学校/公司-方向/会议(eg.ACL),进入技术/投稿群

cdcd98cba306bb887d9c413934b4b6f4.png

id:DLNLPer,记得备注呦

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值