论文笔记整理:窦春柳,天津大学硕士。
来源:CVPR 2020
链接:
https://openaccess.thecvf.com/content_CVPR_2020/papers/Chen_Counterfactual_Samples_Synthesizing_for_Robust_Visual_Question_Answering_CVPR_2020_paper.pdf
动机
当今的VQA模型倾向于捕获训练集中的表层语言相关性,而不能推广到具有不同QA分布的测试集中。为了减少语言偏见,最近的一些工作引入了一个辅助的仅问题模型,以规范化目标VQA模型的训练,并在VQA-CP上实现主导性能。但是,由于设计的复杂性,当前的方法无法为基于集成模型的模型配备理想VQA模型的两个必不可少的特征:1)视觉可解释的:模型在做出决策时应依赖正确的视觉区域。2)对问题敏感:该模型应对所讨论的语言变化敏感。为此,本文提出了一种与模型无关的反事实样本合成(CSS)训练方案。
亮点
作者提出了与模型无关的反事实样本合成(CSS)训练方案,可以有效提高模型的视觉可解释性和问题敏感度。为避免昂贵的人工注释,设计了一种动态答案分配机制,以近似所有合成VQ对的真实答案。
概念及模型
目前将VQA任务是当做一个多类别的分类任务,不失一般性,给定一个数据集,三元组,图片,问题和答案