2021.02.05 Visual QA论文阅读

[2016][ECCV] Ask, Attend and Answer: Exploring Question-Guided Spatial Attention for Visual Question Answering

文章链接
本文的motivation和同期的论文都差不多,就是existing methods直接套用image captioning任务的方法(LSTM、RNNs,基于global feature),这样的方法没有spatial inference的能力,不能显式的进行目标定位。本文从这个角度出发,作者认为,进行QA需要模型根据question关注到图片的一部分,遂提出了Question-Guided Spatial Attention。

在方法上 ,作者提出了一个基于question指导的image上的spatial attention,并通过重复attention部分,实现deeper inference。

作者探索了hop次数对实验结果的影响,2hop比1hop的效果好很多,但是3hop就几乎没有提升了。在实验结果上,2hop虽说超过了SOTA,但是和同期的论文比,不算最高的。下面两张图片分别是DAQUAR和VQA数据集上的实验结果。

下面是对spatial attention的可视化,作者对比了one-hop model和two-hop model的spatial attention。下图中,每个QA pair后面的三张attention map分别是:one-hop model’s attention、two-hop model’s attention in hop1、two-hop model’s attention in hop2.


[2016][ECCV] Learning Models for Actions and Person-Object Interactions with Transfer to Question Answering

文章链接
本文的motivation和同期论文有点不同,本文只关注与两类question:① person activity;② person-object relationship。作者通过迁移学习,把在HICO(activity classification dataset)和MPII(human pose dataset)上训练得到的模型,transfer到VQA任务上。

本文是一个region based方法,基于Fast RCNN提取ROIs。然后对于image I I I和ROI set B B B,计算action score s c o r e ( a ; I ) = max b ∈ B s c o r e ( a ; b , I ) score(a; I) = \text{max}_{b \in B} score(a; b, I) score(a;I)=maxbBscore(a;b,I)。将得到的score输入到logistic sigmoid或softmax即可得到action预测,这一部分作者称为多实例学习(Multiple Instance Learning)。本文另一contribution是使用了weighted loss,其实就是给正负样本的loss加上了人为权重,正样本权重是10,负样本权重是1.

作者只在Visual Madlibs的两类数据上做了实验:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值