微软提出KOSMOS-2.5,能阅读「文本密集图像」的多模态大语言模型

d96f13c7004db6a5899e4fa2e3636c4c.gif

©作者 | LRS 好困

来源 | 新智元

当前一个显著的趋势是致力于构建更大更复杂的模型,它们拥有数百/数千亿个参数,能够生成令人印象深刻的语言输出。

然而,现有的大型语言模型主要集中在文本信息上,无法理解视觉信息。

因此多模态大型语言模型(MLLMs)领域的进展旨在解决这一限制,MLLMs将视觉和文本信息融合到一个基于Transformer的单一模型中,使该模型能够根据这两种模态学习和生成内容。

MLLMs在各种实际应用中显示出潜力,包括自然图像理解和文本图像理解。这些模型利用语言建模作为处理多模态问题的通用接口,使其能够根据文本和视觉输入处理和生成响应。

不过,现有的MLLMs主要关注分辨率较低的自然图像,对于文本密集图像的MLLM研究还不多见,因此充分利用大规模多模态预训练来处理文本图像是MLLM研究的一个重要的研究方向。

通过将文本图像纳入训练过程并开发基于文本和视觉信息的模型,我们可以开辟涉及高分辨率文本密集图像的多模态应用的新可能性。

b202b8f8fc78ed5511dc8041a19fe2f1.png

论文地址:

https://arxiv.org/abs/2309.11419

KOSMOS-2.5是一个基于文本密集图像的多模态大型语言模型,它是在KOSMOS-2的基础上发展而来的,突出了对于文本密集图像的多模态阅读和理解能力(Multimodal Literate Model)。

该模型的提出突显了其在理解文本密集型图像方面的卓越性能,弥合了视觉和文本之间的差距。

与此同时,它也标志着该任务范式的演变,从以前的编码器-解码器(encoder-decoder)架构转变为纯解码器(decoder only)架构。

KOSMOS-2.5的目标是在文本丰富的图像中实现无缝的视觉和文本数据处理,以便理解图像内容并生成结构化文本描述。

73602b80ece7ff2e968a118f00fb51ab.png

▲ 图1. KOSMOS-2.5概览图

如图1所示,KOSMOS-2.5是一个多模态模型,旨在使用统一的框架处理两个紧密相关的任务。

第一个任务涉及生成具有空间感知的文本块,即同时生成文本块的内容与坐标框;

第二个任务涉及以Markdown格式生成结构化的文本输出,同时捕捉各种样式和结构。

545199410f5aae38f5c17cedf055683d.png

▲ 图2. KOSMOS-2.5架构图

如图2所示,两个任务利用共享的Transformer架构与任务特定的提示。

KOSMOS-2.5将基于ViT(Vision Transformer)的视觉编码器与基于Transformer架构的解码器相结合,通过一个重采样模块连接起来。

c539ca257020f54e9ba123c79bdace96.png

▲ 图3. 预训练数据集

如图3所示,为了训练这个模型,作者准备一个庞大的共324.4M的数据集进行预训练。

ba11ce53d89dc82dd841e499535b1a77.png

▲ 图4. 带有边界框的文本行的训练样本示例

cdaa88115052bf5ad2fce4cfc25c288f.png

▲ 图5. Markdown格式的训练样本示例

该数据集包含各种类型的文本密集图像,其中包括带有边界框的文本行和纯文本的Markdown格式,图4和图5为训练样本示例可视化。

这种多任务的训练方法增强了KOSMOS-2.5在整体上的多模态能力。

019fcff319e8ed17c9dd27645e15e9df.png

▲ 图6. 端到端的文档级文本识别实验

a2d024172ae7a22b240e36cfb912d873.png

▲ 图7. 从图像中生成Markdown格式文本实验

如图6和图7所示,KOSMOS-2.5在两个任务上进行评估:端到端的文档级文本识别和从图像中生成Markdown格式文本。

实验结果展示了KOSMOS-2.5在理解文本密集的图像任务方面的出色表现。

062314fc3796949812133a50b97f8a42.png

▲ 图8. KOSMOS-2.5的输入和输出样例展示

此外,KOSMOS-2.5在少样本学习和零样本学习的场景中展现了有前景的能力,使其成为处理文本丰富图像的实际应用的多功能工具。

作者指出,指令微调是一个很有前景的方法,可以实现模型更广泛的应用能力。

在更广泛的研究领域中,一个重要的方向在于进一步发展模型参数的扩展能力。

随着任务范围的不断扩大和复杂性的不断提高,扩展模型以处理更大量的数据对于文字密集的多模态模型的发展至关重要。

最终目标是开发出一种能有效解释视觉和文本数据的模型,并在更多文本密集型多模态任务中顺利推广。

参考资料:

https://arxiv.org/abs/2309.11419

更多阅读

7caff7e6ac8286678704a2049686298a.png

f2398a503979c1ab63eeafc3f90a60e5.png

c42046562e3140a71bddf36c2d88d28b.png

5662e8bea62b96988119cdc2e6512a48.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

23004f981bab74fe1dfeb12edcda0949.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

·

dd4b02c40cdf6673a54051e7ad80ce41.jpeg

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值