多模态大模型面对误导性问题:看懂图片也会答错,一骗就中招

关注公众号,发现CV技术之美

多模态大语言模型(MLLMs)因其在视觉理解和推理方面的突出表现,例如生成详细的图像描述和回答复杂的问题等,逐渐成为近期AI研究的热点。

然而,Bunny 团队的最新研究发现,尽管许多MLLMs对视觉内容能够正确理解,但在面对误导性的问题时却容易给出错误答案,如图1所示。团队基于此揭示了一个隐藏现象:MLLMs 在视觉问答上的错误回答,不总是因为性能不足,还可能是由于对误导性问题缺乏鲁棒性。

593f7a421ba948e1e9568bee16fffed6.png
图1 左图展示模型能够正确理解视觉内容,但对于误导性问题回答错误。右图展示现有的MLLMs在回答正向的问题和负向的误导性问题还存在一定的鸿沟。

为全面衡量 MLLMs 的理解能力及其在正确理解视觉内容后面对误导性问题时的表现,研究团队提出了多模态鲁棒性基准(MMR-benchmark)和针对鲁棒性的评价指标。同时为了提升 MLLMs 针对误导性问题的鲁棒性,研究团队精心设计了一个包含成对正向和负向视觉问答样本的训练集(MMR-data)。

实验结果表明,通过使用MMR-data,MLLMs 在应对负面问题时的鲁棒性得到显著提升。

MMR benchmark 构建及评测指标

MMR benchmark 构建

为了实现全面的定量评估和分析,MMR-benchmark通过人工精心标注构建了 300 个正向问题和配对的 300 个带有误导性的负向问题,每个问题包含4个选项,且只有1个正确答案。正向问题用来评估模型正确理解视觉内容的能力,而负向问题则评估模型在面对误导性问题时的鲁棒性。

如图2所示,MMR-benchmark涵盖了字符、属性和语境3个不同粒度层级,包含了总共12个类别。

c6ee722203bc93e9a765e84545f76f6e.png
图2 MMR benchmark示例

字符级问题提示识别字符或数字等元素,而属性级问题则侧重于颜色、质地和数量等属性。语境层面的问题则涉及情感、文化和常识等更高层次的概念。例如,字符级的误导性问题会改变字符或数字等元素,属性级的问题会混淆属性,而情境级的提示则会引入复杂的概念,从而彻底测试模型对误导性信息的抵御能力。

评测指标

我们全面地考虑了 4 种结果类型:

  1. 理解且鲁棒(UR),即正向问题和负向问题都答对

  2. 理解但脆弱(UF),即答对了正向问题但答错负向问题

  3. 不理解但严谨(NR),即答错了正向问题但答对负向问题

  4. 不理解且脆弱(NF),即正向问题和负向问题都答错

为量化MLLMs对负面问题的鲁棒性和实际理解能力,我们引入了“误导率(MR)”和“鲁棒性准确率(RA)”,误导率(MR)能够反映出模型面对误导性问题时的鲁棒性,鲁棒性准确率(RA)能够反映出模型在严格条件下答对问题的准确率。二者公式如下:

c45d3009d44c470bfe00f56e7b2bdaf5.png

其中表示4种结果的样本数量。通过结合评估指标 MR 和 RA,我们的MMR 基准不但可以准确反映模型的基本理解能力,而且能够深刻揭示模型对具有误导性提示的问题的鲁棒性。

多模态大语言模型在 MMR benchmark 上表现

下表展示了 6 个闭源模型和 12 个主流开源MLLMs在 MMR 基准上的表现。结论如下:

  1. 尽管理解了视觉内容,但无论是开源还是闭源模型都对负面问题表现出脆弱性。在闭源模型中,GPT-4o表现最佳;而在开源模型中,Mini-Gemini-HD-34B以69.0%的RA指标领先。然而,与Mini-Gemini-HD-34B相比,GPT-4o对负面问题更为敏感,其MR为19.46%,而Mini-Gemini-HD-34B为15.16%。

  2. 模型特别容易受到涉及字符级细节、数字、位置、背景、专业知识以及语境等问题的影响。

  3. 模型在具有较高正面理解能力的子类别上往往表现出更强的抗干扰能力。

de060c2cf25785668bd9000369a2edcd.png

指令调优数据集构造

为增强 MLLMs 的理解能力和鲁棒性,我们提出了一种数据构建方法,利用GPT-4V生成成对的正面和负面样本进行指导调优,如图2 所示。包括三个步骤:

  1. 信息提取。我们从图像中隐式和全面地提取这些详细信息,包括文本、物体属性、人物特征、物体之间关系,人物之间关系,事件和整体感知。

  2. 指导调优数据生成。我们通过提取的信息生成正面样本,并构建直接与正面样本相矛盾的负面样本。

  3. 样本过滤。通过关键词匹配过滤样本,去除包含不确定答案和冗余短语的样本。

c5afd3f36197d71ece2e668fdd00db39.png
图3 指令调优数据集构造过程。

实验结果

通过使用构建的数据集进行实验,我们在MMR基准测试及其他通用基准测试中的结果如下表所示。实验结果表明,与使用同类数据训练相比,模型在使用构建的数据集训练时表现出更优越的性能。这表明,构造的数据集能够显著提升模型理解能力和在面对误导性问题时的鲁棒性。

546ef2ba45fe9a8fe9256a84cc202f65.jpeg dc7568de06210e17b8105cf12b2ebc1a.jpeg

在现有数据集的基础上,我们加入了一些其他对话数据,总共构建了649k的数据集,并使用不同的语言模型进行训练。通过与其他模型的对比实验,结果表明,所构建的数据集能够显著提升模型性能。具体实验结果如下表所示。

a9af90690aeeac818d3cf6a3030c82c6.jpeg

结语

本研究深入探讨了多模态大语言模型(MLLMs)在准确解读视觉内容并应对负面问题时面临的挑战。我们发现,尽管MLLMs展示出对视觉内容细致的理解,但在面对负面问题时往往会出现不准确的答案。

为了量化评估MLLMs的表现,我们引入了MMR评估框架,旨在全面衡量其对视觉内容的理解和抗负面问题的鲁棒性。同时,我们提出了一种数据构建方法,并引入了高质量的微调数据,以提升MLLMs的鲁棒性和理解能力。

这项研究强调了改进评估方法和数据策略对于推动 MLLMs 在实际应用中性能提升的重要性。

数据,代码与模型均已开源

  • 论文地址:https://arxiv.org/abs/2406.10638

  • 项目地址:https://github.com/BAAI-DCAI/Multimodal-Robustness-Benchmark

  • benchmark和数据集下载地址:https://huggingface.co/datasets/BAAI/Multimodal-Robustness-Benchmark

  • 模型地址:

    • https://huggingface.co/AI4VR/Bunny-MMR-3B

    • https://huggingface.co/AI4VR/Bunny-MMR-4B

    • https://huggingface.co/AI4VR/Bunny-MMR-8B

  • 在线demo地址:http://mmr.dataoptim.org/

最新 AI 进展报道
请联系:amos@52cv.net

e35c67c90562b5d7ac2590553c218ba9.jpeg

END

欢迎加入「大模型交流群👇备注:LLM

c6cae85196c44637a91e4ad221b1e6cd.png

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
《大模型技术进化论:多模态模型综述》是一篇系统阐述多模态模型技术进化的综述性论文。多模态模型是指通过整合多种不同的数据形式和类型,构建出更复杂、更完整的模型,以提高模型的表现和性能。 该论文首先介绍了大模型技术的背景和发展动力。随着数据规模的快速增长和多源数据的丰富性,传统的单一模态模型已经面临着一系列的挑战,无法完全适应现实世界中的复杂情况。因此,多模态模型的出现成为了解决这一问题的有效手段。 随后,论文针对多模态模型的构建过程进行了详细的讨论。首先介绍了多模态数据的采集与预处理方法,包括各种传感器和设备的应用,以及数据对齐和归一化等技术。然后,论文详细介绍了多模态特征提取、融合和表示学习方法,包括传统的特征提取算法深度学习方法等。 接着,论文重点讨论了多模态模型在各个领域的应用。例如,在计算机视觉领域,多模态模型能够通过融合图像和文本数据,实现更准确的图像分类和目标检测。在自然语言处理领域,多模态模型能够通过融合文本和语音数据,实现更准确的情感分析和语音识别。此外,还介绍了多模态模型在医学、金融、推荐系统等领域的应用。 最后,论文总结了多模态模型技术的优势和挑战,并展望了未来的研究方向。多模态模型技术的优势在于可以综合利用不同数据源的信息,提高模型的鲁棒性和泛化能力。然而,多模态模型技术面临着数据集规模和计算复杂度的挑战,需要进一步研究和改进相应的算法和技术。 综上所述,《大模型技术进化论:多模态模型综述》通过系统的介绍了多模态模型技术的构建过程、应用领域和发展前景,对相关研究和应用人员具有重要的参考价值。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值