ACL 2024 Oral|我们离真正的多模态思维链推理还有多远?

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【Mamba/多模态/扩散】交流群

添加微信号:CVer111,小助手会拉你进群!

扫描下方二维码,加入CVer学术星球!可以获得最新顶会/顶刊上的论文idea和CV从入门到精通资料,及最前沿应用!发论文/搞科研/涨薪,强烈推荐!

6ed6b1eea88558cbbe5355ad13c2dd5e.png

    转载自:机器之心

该文章的第一作者陈麒光,目前就读于哈工大赛尔实验室。他的主要研究方向包括大模型思维链、跨语言大模型等。

在过去的几年中,大型语言模型(Large Language Models, LLMs)在自然语言处理(NLP)领域取得了突破性的进展。这些模型不仅能够理解复杂的语境,还能够生成连贯且逻辑严谨的文本。

然而,随着科技的发展和应用场景的多样化,单一文本模态的能力显然已经不能满足现代需求。人们日益期待能够处理和理解多种模态信息(如图像、视频、音频等)的智能系统,以应对更复杂的任务和场景。研究者们开始尝试将文本 CoT 的能力扩展到多模态思维链推理领域,以应对更加复杂和多样化的任务需求。

最早的多模态思维链研究之一是由 Lu 等人 [1] 引入的 ScienceQA 基准,该基准结合了视觉和语言信息,推动了多模态思维链(Multi-modal Chain of Thought, MCoT)的研究。ScienceQA 数据集的出现,使得研究者们能够在一个统一的框架下评估多模态模型的思维链推理能力。

进一步地,Zhang 等人 [2] 的研究更是将 MCoT 的性能推向了一个新高,使得模型在 ScienceQA 数据集上的表现超过了人类的水平 (93%>88%)。然而,当前的多模态思维链研究是否真正解决了所有挑战?随着 ScienceQA 等基准测试的成绩不断刷新,我们是否可以认为多模态推理问题已经迎刃而解?

研究者们通过深入分析发现,当前的多模态思维链基准仍然存在严重的问题,导致对模型实际能力的高估。当前的多模态思维链基准仍面临以下三个严重的问题:视觉模态推理缺失仅有单步视觉模态推理以及领域覆盖不足

这些问题严重制约了多模态思维链领域的发展。因此,研究者提出了一个新的基准

f62974f3531713814f52df7665cb08ee.png(Multi-Domain Multi-step Multi-modal Chain-of-Thought),旨在解决上述问题,并推动多领域、多步和多模态思维链的进步。研究者们还进行了全面的评估,涉及丰富的多模态推理设置与方法。

研究者们还发现当前的多模态大模型在 b3812b4941b64a6454de6728b26c1941.png 上的表现存在巨大的性能缺陷,尽管它们在以前的传统多模态思维链基准上表现优异。最后,研究团队希望 09746dae210158f7409dffc8126f7a27.png 能够成为一个有价值的资源,为多领域、多步和多模态思维链的研究提供开创性的基础。

2c32bc5742e0feb900f851fa7378b345.png

  • 榜单地址:https://lightchen233.github.io/M3CoT.github.io/leaderboard.html

  • 论文地址:https://arxiv.org/abs/2405.16473

  • 代码地址:https://github.com/LightChen233/M3CoT

动机

尽管在 MCoT 研究领域取得了显著进展,但现有基准仍然存在诸多不足:

1. 视觉模态推理缺失:模型往往可以仅基于文本模态生成推理和答案,这并不能真实反映多模态 CoT 模型的能力。

2. 单步视觉模态推理:比如说,只需要看到单次图片中的 “羽毛” 便可直接获得答案。而在实际应用中,多步推理更为常见和必要,要求模型在推理的过程中动态的多次结合多模态信息进行综合推理。

3. 领域缺失:对于思维链来说,常识推理和数学推理是该领域的重要组成部分,而现有基准缺乏对常识和数学等重要领域的覆盖,限制了多模态 CoT 能力的综合评估。

a413fde876b9885dfcc023a23552ce44.png

针对以上问题,研究者们开发了一个新基准52021cc91eaeaeef18b0f21de617296c.png,并希望推动多领域、多步和多模态思维链的研究与发展。

f4b22e5d8811478303c1ea2e953050cb.png

数据构建过程

afad847ab527653199a118a395f4cd1b.png

97f4489e2a41d1e898e05c8aff2f2053.png 的构建涉及如下四个关键阶段:

  • 视觉模态推理缺失样本移除:首先,为解决视觉模态推理缺失的问题,9a55b7877e48ae8c8c12ede6bc8be1ce.png 利用自动和手动相结合的方式移除了那些无需图像即可得出答案的样本。

  • 多步多模态样本构建:这一阶段中,为了保证基准满足多步多模态的要求,d0690cbc769f6a574a94a5c149f04ce9.png首先自动的去除了推理路径过短的样本,随后通过手动去除和优化样本,确保每一个样本确实需要跨模态的多步推理。

  • 多模态 CoT 领域增强:此外,85f4fe07a0bdf61cd665641923cd5d96.png通过引入数学和常识领域的数据,将 LaTeX 代码转为图片,并利用大模型生成更多的问题、推理路径和答案,增强了基准的多样性和挑战性。

  • 质量检查:为了保证数据集的质量,e263b2dee366abfc6c2b210cfd056c34.png实施了多轮人工审核和自动检测,确保数据的一致性和准确性。

主流多模态大语言模型评测结果

研究者们在多个大型视觉语言模型(VLLMs)上进行了广泛的实验,包括 Kosmos-2、InstructBLIP、LLaVA-V1.5、CogVLM、Gemini 和 GPT4V 等。研究者们还探索了一些提示策略,如直接提交样本、思维链提示(CoT)[3] 以及描述性提示(Desp-CoT)[4] 和场景图思维链提示策略(CCoT)[5]。

实验结果与结论如下所示:

  • 开源模型与 GPT4V 仍有差距:尽管这些模型在现有基准测试中表现优异,但在 18567ae346ac611678b0991cd5d3ab83.png上的表现仍有显著差距。尤其是当前的开源 VLLMs 在多步多模态推理方面表现不佳,与 GPT4V 相比存在显著差距。

  • GPT4V 与人类仍有差距:此外,尽管 GPT4V 在 c96fc519793575864f3e6088d8e20697.png 上的表现优于其他 VLLMs,但与人类表现相比仍存在显著差距。这表明,当前的 VLLMs 在处理复杂的多模态推理任务时仍需进一步改进。

  • 多模态思维链涌现现象:视觉大模型在参数级别超过 100 亿(≥13B)时表现出思维链涌现现象。

6e50f68885ad71555b888cd2a4f4c664.png

分析

此外,为了回答如何能够在 fd0a8a8c8d75f53adf2f5ceb038609ca.png 上获得更好的表现。研究者们提供了更全面的分析,从而揭示了当前 VLLMs 在多步多模态推理方面的显著不足,为未来的优化提供了方向。

  • 单步推理任务的表现远优于多步推理任务。模型在解决多步多模态推理时性能与单步多模态推理有接近 30% 的差距,且随步骤数增加,性能递减。这表明模型在处理复杂多步骤推理时仍存在困难。

    f70a32637104e13dfddb6c9452cf259a.png

  • 提高模型生成的推理过程质量对于提升 683b68189d07ee8e1e0619a1656c875d.png 的表现至关重要。通过评估多维度的推理质量,研究者们观察到推理质量的提升与 85fe0525617d6051e1073b0dbcd6a08a.png 的性能呈现指数级相关关系。提升多模态推理的逻辑质量是解决 3f8043670c32e05d807f614ee375a4d6.png 的关键瓶颈之一。

6e512b9315951ad82d208e4796a76a14.png

  • 多模态信息交互的增加能够显著提升模型的推理性能。由于 de8e4c9ad426b6082729c68a9215e216.png 要求推理时动态的包含多个跨模态推理步骤,则至少有 2 步跨模态推理,而现有模型推理过程中,平均的跨模态推理步骤数小于 1。这说明未来的研究应注重提高推理过程的质量和多模态信息的交互,以解决当前模型在 d4217a9c41c3db129428a277e826e378.png 上的表现不足。

ae30e2c8fa888b3d008e394282cb42a4.png

探索

在此基础上,研究者们进一步探究了当前各种常用的多模态方法与设置,探究是否能够有效的解决 d901d0f722c079d44a5d8addda5f02bb.png 中的问题。

工具使用探索

在多模态推理中,工具使用被认为是提高模型性能的一种有效策略。研究者们在实验中评估了多种工具使用方法,包括 HuggingGPT、VisualChatGPT、IdealGPT 和 Chameleon 等模型。

文本大模型使用多模态工具在 bd275d68c518fa2e65c16c9cf96f46ab.png 上表现不佳:实验结果表明,尽管这些工具在单模态任务中表现良好,但在 83c644cead6cb69696d0fbe44352a74b.png 基准上的表现仍存在显著差距。例如,HuggingGPT 在处理复杂的多步推理任务时,由于缺乏对视觉信息的有效利用,表现较为逊色。此外,VisualChatGPT 和 IdealGPT 在处理需要多模态交互的任务时,表现也未能达到预期。这些结果表明,当前的工具使用框架需要进一步改进,以更好地整合和利用多模态信息。

28eb602a1890be2c6edd58eab8ed66b4.png

上下文学习探索

在上下文学习方面,研究者们探索了不同的示例策略对模型性能的影响。具体而言,研究者们评估了纯文本示例以检测模型在多模态推理时是否会进行文本形式的学习,同时还评估了多模态示例以检测模型在多模态推理时是否会利用多模态示例进行上下文学习。

纯文本示例无法提高 3afca122b92808b4838372c7c21b4750.png 上的性能:实验结果显示,对于纯文本示例来说,这些样本数量对模型性能影响几乎可以忽略不计,这说明,纯粹的文本形式的模仿并不足以解决 8ce3abe45eb8e659fb3eb1627baebb85.png 问题。

图像和文本交错的多模态示例甚至可能会损害 6ce8093fbfbc2a658f4cc9275450194d.png 上的性能:对于多模态示例来说,上下文学习仅仅能够提高较大模型的能力。然而,对于一些训练过多模态交互数据的模型来说,甚至会随着样本数量增加而出现性能下降。因此,研究者们认为,未来需要将包含逻辑的更高质量的图像和文本交错示例用于上下文学习的训练,并增强多模态大模型的多模态交互能力,才能够在一定程度上改善模型的表现。

cfe02819ca8826007cc0c0840aee3642.png

指令微调探索

为了进一步提高模型在 578cda3017f8d64e0526d69599042592.png 上的表现,研究者们进行了微调实验。

指令微调能够显著增强传统视觉语言模型(VLMs)的性能:指令微调使传统视觉语言模型超越零样本视觉大模型,这就是我们的数据集在提高 VLM 有效性方面的价值。经过微调的 VLM(最低为 44.85%)优于大多数具有零样本提示的开源 VLLM(最高为 38.86%)。

指令微调能够进一步地增强大型视觉语言模型的性能:通过在 68f07ffc51c29db252f37134ecd1ac0e.png 数据集上进行微调,LLaVA-V1.5-13B 模型的整体准确率提高了近 20%,并接近了 GPT4V 的水平。

因此,研究者们建议未来的研究可以更多地关注指令微调技术,以进一步提升多模态推理模型的表现。

87f067732d0d0553884a0fc2a3d1caee.png

结论及展望

研究者们引入了一个新的基准 322ab428c6f7a08411c5ebc47032661e.png,旨在推动多领域、多步和多模态思维链的研究。研究者们的实验和分析表明,尽管现有的 VLLMs 在某些任务上表现优异,但在更复杂的多模态推理任务上仍有很大改进空间。通过提出 f4ef85d125f38de2dfcc5c64b8926462.png,研究者们希望能够重新评估现有的进展,并通过指出新的挑战和机会,激发未来的研究。研究者们期待 f87f2b43383ddc0120f1f80293013fb9.png 能够成为一个有价值的资源,为多领域、多步和多模态思维链的研究提供开创性的基础。

参考资料:

[1] Lu et al. Learn to Explain: Multimodal Reasoning via

Thought Chains for Science Question Answering. In Proc. of NeurIPS 2022.

[2] Zhang et al. Multimodal Reasoning with Multimodal Knowledge Graph. ACL 2024.

[3] Kojima et al. Large language models are zero-shot reasoners. In Proc. of NeurIPS 2022.

[4] Wu et al. The Role of Chain-of-Thought in Complex Vision-Language Reasoning Task. Arxiv 2023.

[5] Mitra et al. Compositional chain-of-thought prompting for large multimodal models. CVPR 2024.

 
 

何恺明在MIT授课的课件PPT下载

 
 

在CVer公众号后台回复:何恺明,即可下载本课程的所有566页课件PPT!赶紧学起来!

ECCV 2024 论文和代码下载

在CVer公众号后台回复:ECCV2024,即可下载ECCV 2024论文和代码开源的论文合集

CVPR 2024 论文和代码下载

在CVer公众号后台回复:CVPR2024,即可下载CVPR 2024论文和代码开源的论文合集

Mamba、多模态和扩散模型交流群成立

 
 
扫描下方二维码,或者添加微信号:CVer111,即可添加CVer小助手微信,便可申请加入CVer-Mamba、多模态学习或者扩散模型微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF、3DGS、Mamba等。
一定要备注:研究方向+地点+学校/公司+昵称(如Mamba、多模态学习或者扩散模型+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

 
 
▲扫码或加微信号: CVer111,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集上万人!

▲扫码加入星球学习
 
 
▲点击上方卡片,关注CVer公众号
整理不易,请赞和在看
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值