AAAI 2022 | MAVEx—基于知识的视觉问答方法

e26a66ab9c99b5c946d12a29252989ba.gif

©PaperWeekly 原创 · 作者 | 金克丝

单位 | 南京理工大学

ac66d603e9de124e7405deb8a782466d.png

论文标题:

Multi-Modal Answer Validation for Knowledge-Based VQA

论文链接:

https://arxiv.org/abs/2103.12248

代码链接:

https://github.com/jialinwu17/mavex

20605c11906aaad385159054da289c7b.png

简介

1.1 问题

31f2c142e1d1301dc429f68e0a106874.png

knowledge-based visual question answering 是指模型不仅需要图像的视觉信息和问题的语义信息,还需要图像中的对象所蕴含的外部知识才能够正确的回答问题。这些知识通常以各种形式出现,包括视觉知识、文本知识和常识知识,也可以从各种来源获得,如图像搜索引擎、百科全书文章和概念关系知识库,如图 1,每个问题都需要不同类型的外部知识。

当前大多数 knowledge-based VQA 方法遵循两阶段框架,模型首先检索与问题和图像相关的知识,再由一个单独的融合理解模型预测答案。然而,使用更多的知识来源来检索知识增加了检索到无关或噪声事实的机会,即检索到的知识往往是有噪声的。

1.2 方案

作者提出了 Multi-modal Answer Validation using External knowledge(MAVEx),其思想是基于特定答案的知识检索来验证一组候选答案,进而输出最匹配的答案。MAVEx 的关键直觉是:使用检索到的知识来验证候选答案的有效性比在开放的外部知识里检索来寻找答案更可靠。

因此,作者设计一个模型,根据检索到的知识事实来评估每个候选答案的有效性。现有的方法是在大量检索到的可能不相关的知识事实中寻找答案,MAVEx 旨在了解每个候选答案应该信任哪个知识来源,以及如何使用该来源验证候选答案。作者考虑了文本和视觉的多模态知识,包括使用谷歌搜索的图像、来自维基百科文章的句子和来自 ConceptNet 的概念关系。

bdf83b3b78aa27454f5d98ea94499dbb.png

相关工作

2.1 Visual Question Answering

视觉问答(VQA)需要模型根据给定的图像和问题来回答这个问题。传统的方法通常基于 Transformer 融合图像和问题以进行推理,随着多模态图文预训练领域的兴起,也使得视觉问答成为了评估多模态预训练

  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值