Attention机制论文阅读——SCA-CNN

SCA-CNN是一种结合了空间注意力和通道注意力的卷积神经网络,用于图像字幕任务。它通过动态调制多层特征图中的上下文信息,强化了何处(空间位置)和何物(通道相关性)的表示。论文借鉴encoder-decoder框架,使用CNN作为编码器,LSTM作为解码器,通过两种注意力机制增强图像理解。
摘要由CSDN通过智能技术生成

Attention机制论文阅读——SCA-CNN

2018年06月04日 21:48:26 电子楼战地记者 阅读数 5997更多

分类专栏: attention seq2seq

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

本文链接:https://blog.csdn.net/nbawj/article/details/80560452

论文:SCA-CNN: Spatial and Channel-wise Attention in Convolutional Networks for Image Captioning

文章提出一个新颖的卷积神经网络叫做SCA-CNN,在CNN中加入了Spatial Attention和Channel-wise Attention机制。在图像标注任务中,SCA-CNN动态调制了多层特征图中的句子迭代的context,包含了where信息(和多层卷积层中的空间位置相关)和what信息(和channels相关)。

然而,大多数现有的基于注意力的图像字幕模型只考虑了空间特征,即那些注意模型仅通过空间细节权重将句子上下文调制到最后一个信息层特征图中。本文中,充分将CNN特征的三个特点应用在可视化的基于attention的image caption中。

Attention细节:

    文章借鉴流行的encoder-decoder框架,使用CNN作为编码器,使用LSTM网络作为解码器。SCA-CNN通过channel-wise attention 和spatial attention机制利用了CNN产生的多层特征图。

    要产生image caption的第t个单词,需要将前一个时刻LSTM网络的隐藏层状

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值