In our approach, we leverage a guidance captions as associated text language to steer visual attention. Our image captioning network is trained to minimize the following loss:

1.给定一张图片,从训练集中选择一张相似的图片和一条描述
2.相似的图片和描述are transformed to separate multi-dimensional feature vectors, 用来计算attention map
3.In the attention map, the regions relevant to the guidance caption are highlighted while irrelevant regions are suppressed. The decoder generates an output caption based on a weighted sum of the image feature vectors, where the weights are determined by the attention map.
Ground-truth caption是理想的guidance caption,但是测试的时候没法用,因此采用采样的方法获取guidance caption。相似的图片有共同的显著区域和描述。

该方法利用指导性文字引导视觉注意力,训练图像标题生成网络。通过VGG和Skip-thought Encoder获取图像和描述的特征,使用CIDEr计算相似性。在Decoder中,根据注意力地图加权求和图像特征生成标题。训练时,随机选择相似描述作为指导,测试时使用多个候选指导生成并排序句子。
最低0.47元/天 解锁文章

324

被折叠的 条评论
为什么被折叠?



