Long-VITA:突破百万Tokens限制!开源多模态大模型新标杆

d1cff567049e7c1a8004a38a0d46c620.gif

近期,多模态大模型(MLLMs)发展迅速,但开源模型在长上下文场景(如长视频或高分辨率图像)中仍显著落后于闭源模型。部分专注于长上下文场景的开源模型在短上下文场景(如短视频或静态图像)中又表现不佳。

为此,腾讯优图实验室和南京大学等联合推出全开源、可复现的多模态大模型 Long-VITA,原生支持 4096 帧图像或者 100 万 Tokens 输入,在支持长上下文场景的同时,保持短上下文场景的优异表现。在单机推理上,实现推理长度扩展 417% 和推理速度降低 47.3%

0c5dd91b86727d8cd544123403628cf9.png

论文链接:

Long-VITA: Scaling Large Multi-modal Models to 1 Million Tokens with Leading Short-Context Accuracy

论文链接:

https://arxiv.org/pdf/2502.05177

代码链接:

https://github.com/VITA-MLLM/Long-VITA

ae48386850678683238352b50d661343.png

背景介绍

目前多模态大模型在处理长上下文(长视频、高分辨率图像等)时通常面临以下挑战:

  • 上下文限制:模型的上下文窗口较小,无法处理长序列输入,在长视频理解等任务中受限;

  • 性能退化:为了扩展上下文,一些模型采用视觉 tokens 压缩、稀疏 self attention 和位置编码外推等技术,影响了模型在精细视觉任务中的表现;

  • 多任务平衡:大部分开源长视频模型在图像理解上效果不佳,忽略长视频理解和单图理解间的平衡。

Long-VITA 致力于推动长上下文多模态大模型的开发与应用,为学术界和工业界提供一个强大的开源基准模型。Long-VITA 具有以下亮点:

  • 原生支持 4096 帧图像、一百万 Tokens 输入:模型采用全参训练,不用任何参数高效微调方法;不压缩视觉 tokens;不采用稀疏 attention;不使用位置编码外推;

  • 支持长上下文的同时,保持短上下文效果优异:在 OpenCompass、Video-MME、LongVideoBench、MVBench 等不同场景的 Benchmark 上表现优异;

  • 只用开源数据训练,效果超过使用非公开数据训练的主流模型:表明了开源数据的价值以及开源模型的巨大潜力;

  • 完全开源可复现:除了开源模型权重,还开源训练数据、训练代码和测试代码,为社区提供一个完全透明、开放的研究基准;

  • 训练和推理流程全国产化:采用 MindSpeed 和 MindSpeed-LL 框架在 Ascend NPU 上实现模型训练和推理。同时提供 GPU 平台适配代码。在 8 卡 96G 显卡的机器上,实现推理长度扩展 417% 和推理速度降低 47.3%;

654655b06114b53132e162129a8c1f64.png

模型架构

Long-VITA 采用经典的 Vision Encoder - Vision Projector - LLM 架构。

Vision Encoder:采用 InternViT-300M,并针对不同长宽比的图像进行动态切分。

Vision Projector:采用两层的 MLP,并使用 pixel shuffle 减少 visual tokens 数量。

LLM:采用 Qwen2.5-14B-Instruct。

874243d7ea9f0394665d9e153e79a343.png

训练数据

544e0771b265e4f1bc2a763bf64d92be.png

Long-VITA 只采用开源数据进行训练,没有采用数据过滤操作。

不同训练阶段的数据配比不同。其中包括:

Image-Text Data:包括图像描述数据,如 LLaVA-ReCap、ALLaVA-4V 等;视觉问答数据,如 LVIS-Instruct4V、the-cauldron 等;图文交织数据,如 M4Instruct 和 Comic-9k,其中 Comic-9k 为项目收集的漫画及对应的故事梗概,单条数据超过 10 张图像,已在 Huggingface 平台开源。


Video-Text Data:包括 VideoGPT-plus、ShareGemini、LLaVA-Video-178K,以及项目从 MovieNet 中整理的电影级别长度的视频理解数据 MovieNet-Summary,已在 Huggingface 平台开源。


Short Text Data:包括 OpenHermes-2.5、LIMA、databricks-dolly-15k 等较短的纯文本数据集。

Long Text Data:包括 Long-Instruction-with-Paraphrasing、LongForm、LongAlign-10k 等超长的纯文本数据集,旨在将 LLM 的长上下文能力迁移至多模态领域。

106df37322b1426d37894a73a5d2f7af.png

训练流程

2b4de0c32ffe555523c64a7df6200b8d.png

阶段一:视觉-文本对齐

该阶段旨在实现图像表征与 LLM 输入文本空间的初步对齐。只训练 Vision Projector。训练数据主要为图像描述数据和文档类型数据。

阶段二:通用知识学习

该阶段旨在促进模型对通用视觉-文本知识的学习。训练全部模块。训练数据包括图像-文本,视频-文本,纯文本数据,数据长度较短。采用 Packing 技术将多条数据拼接至固定长度,同时修改位置编码和 Attention Mask 确保数据彼此独立,以最大程度利用计算资源。

阶段三:长序列微调

该阶段将模型的上下文长度扩展至 128K。训练全部模块。训练数据中降低长度较短数据的比例,引入长度较长的漫画、视频、文本数据。采用 Packing 技术,但不修改位置编码和 Attention Mask。

阶段四:超长序列微调

该阶段将模型的上下文长度扩展至 1024K。训练全部模块。训练数据额外使用 MovieNet-Summary。采用 Packing 技术,但不修改位置编码和 Attention Mask。

be78ba0161bcb3f1b26ddf853505b5d0.png

推理扩展

Long-VITA 设计了两种提高模型在推理阶段能处理的 tokens 数量的实现:

Context-Parallelism Distributed Inference:结合张量并行(Tensor Parallelism)和上下文并行(Context Parallelism)实现分布式推理,支持处理无限长输入序列。

Logits-Masked Language Modeling Head:对 LLM 最后一层的输出特征进行屏蔽,只将需要预测下一 token 的输出特征送入 LM_head,显著降低了内存消耗。

2733d8c16dc31eba2f6b93f7fb8ca08f.png

041642fe0a7c99274743117f5206bd86.png

0946d04d0afe21d1f155b453428598d2.png

实验评估

图像理解评估

fca2af8d2f46740f51c2360fb2f04ba1.png

Long-VITA-16K 在 OpenCompass 的 8 个 Benchmark 上表现优异,超越了许多开源模型,尤其在处理多图像任务时展现出强大的能力。

但 Long-VITA-1M 的表现略逊于 Long-VITA-16K 和 Long-VITA-128K,这可能是由于在 1M 训练中未修改 Attention Mask 来隔离样本导致了不同数据样本的混淆。Long-VITA 展示了使用开源数据训练也能实现与私有数据训练相媲美的强大性能。

视频理解评估

15bbebe6e7066048c3d2cff8ff1ed6a4.png

bcfbf995c208946dcef07ce424057279.png

在 Video-MME 上,Long-VITA-128K 在处理 256 帧视频时超越了所有其他 20B 参数以下的模型,尤其在中长视频任务上表现出色。Long-VITA-1M 能够原生支持 4096 帧的视频输入,并兼容 slow-fast 和 progressive pooling 等 training-free 方法进一步扩展视觉上下文窗口。

此外,由于在预训练和微调阶段未调整旋转位置编码的比例因子,因此在推理阶段可通过位置编码插值进一步实现长度外推。

在 LongVideoBench 和 MVBench 上,Long-VITA 分别展示了在长视频理解和短视频理解上的优异性能。另外,由于缺少多模态长上下文数据,Long-VITA-1M 仍有提升空间。

4845446cddadc144e07c19826fe92bb0.png

未来工作

Long-VITA 完全基于开源数据,在长视觉上下文和短视觉上下文中均展现出优异的性能,在各种视频和图像理解任务中处于领先地位。未来 Long-VITA 将采取多模态长上下文数据扩充过滤、训练流程优化等手段进一步改善模型性能。

更多阅读

7c5b562a34c71a03eabded833025fac1.png

483b14947702a0061ee96f03a0368a54.png

d208d5b3674dc0084f55ca7fbc14e7cf.png

b60ffcf1cecefce565162cf8d068d175.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

82b1aff5c470d750459ab0e35222a139.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

·

·

图片

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值