前言
Visual Question Answering是多模态学习的一个领域,模型通过结合图像与问题,推理出正确的答案,由于问题问的是图像中出现物品的方位,大小,形状等等,因此问题与图像之间具有强相关性,因此就需要模型能够同时学习到图像中的信息以及文本间的信息,并进行融合分析
模型
简单复现了MCAN模型,搜索MCAN就可以搜到作者他们的github地址,由于项目代码过多,为了方便训练与测试,我自己写了一个简单版本的,总共只有2个py文件,一个是训练用,一个是模型用。
复现的模型思路为堆叠式的,这个比较容易理解,对图像和文本分别经过self-attention之提取各自的特征后,通过cross-attention对文本和图像特征进行融合,堆叠多层之后输出问题的答案。对于CLEVR数据集,由于问题都是只有单独的答案,因此采用cross entropy作为损失。
特征选择
按照MCAN给出的结果,采用resnet101的特征训练能够达到98%的准确率,因此博主也采用resnet101的特征进行训练,对于CLEVR数据集,可以采用OPENVQA给出的特征提取demo进行特征提取,得到特征之后就可以进行训练了。
开源代码
我将代码开源在了GitHub,代码简短,简单易懂,欢迎尝试Visual-Question-Answering-CLEVR