论文笔记:Knowing When to Look:Adaptive Attention via A Visual Sentinel for Image Captioning

这篇文章首先认为,非视觉词比如the,of等的挖掘,并不需要视觉信息,它们的梯度反而会影响到视觉信息的有效性,因此该文引进一个参数,来控制attention中视觉信息和历史信息的比重,作者设计了蕴含历史信息的visual sentinel,来表示已生成文本的历史信息。相当于从时间的维度来决定什么时候看,看多少。此外,作者还改变了空间attention机制。

首先,作者提出了改进的spatial attention模型,如下图。前者是传统的attention,由 决定要看的图片信息,而这篇文章则决定由 来决定看的信息,作者认为这可以降低隐含层对于下一个词预测的不确定性。此外,和传统的模型并无区别。

接下来,就是本文的核心创新,作者认为,对于非视觉词,它们的生成应该取决于generator的历史信息而不是视觉信息,因此在这种情况下应该对视觉信息加以控制。所以在此处引进visual sentinel。具体如下图。

和前面改进的空间模型相比,就是多了一个 信息,而它的生成结构其实和 是一致的,所以它所蕴含的就是generator已经生成的文本信息。

引入到attention以后,attention生成的新context向量 如下,引入一个新的参数 ,将原有的context向量 进行加权。当 为1时,则当前time step文本的生成只取决于之前已生成的文本信息,为0则只取决于视觉信息,与上文的空间attention机制一样。由此,便可以决定在t时刻是否看视觉信息,以及看多少。

后文继续介绍了 的生成。在改进过的空间模型中, 的建立公式如下,

在这儿,通过 来扩充 一个维度,来代表 的相对权重,操作如下,

此时取

 

参考文献

Lu J, Xiong C, Parikh D, et al. Knowing When to Look: Adaptive Attention via a Visual Sentinel for Image Captioning[C]// IEEE Conference on Computer Vision and Pattern Recognition. IEEE, 2017:3242-3250.

  • 2
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值