residual attention 论文阅读以及复现

目录

论文理解


attention 机制最初是出现在翻译领域的,之后逐渐应用到检测和识别上的。

总的来说,我觉得attention就是对提取的特征进行加权,进行提升重要特征忽略次要特征的作用。在这个本质作用上,我觉得和SEnet的目的是相似的,只是提纯的手段不一样。

论文:Residual Attention Network for Image Classificatio

论文理解

总的来说,这篇论文有几个重要的方面加两张重要的图。

几个重要的方面:(introduction)

1.利用可堆叠的结构:Stacked network structure

2.attention residual learning:基于attention模块,借鉴residual的思想,残差学习。

3.soft mask attention。

两张图:
1.整体结构图:

2.soft mask

这张图的主要目的是表述,通过softmask branch ,扩大了感受野。同时将attention得到的权重信息和原始map定位对应上,最终取得加权的map。

由于加权之后的值是原始map乘以了(0,1)系数的map,所以会越来越小,同时借鉴了residualnet,加入了skip connect。

结构解释:

网络结构中主要的就是不同stage的attention branch。根据stage的不同,map的尺寸是不同的,所以attention的dpwnsample数量不同,比如stage1就是从56*56降到28*28再到14*14,同时对称的为3个upsample层。具体的attention如下所示:

 

 其中的三角表示下采样和上采样,条形为residual unit。

我觉得这个attention形成模块化的好处之一是,可以用多层的down-up的结构来替换,比如说命名上图中的三个结构分别为a1,a2,a3。在原始论文中的结构,stage1,2,3分别是使用的a1,a2,a3。这是为了匹配尺寸设计的,具体的提升效果暂时不知道。

同时,加入不考虑尺寸的匹配的话,是不是也可以三个stage都使用a3结构,或者其他的组合结构。

复现的结果:

在同等情况下,带有attention的结构比不带attention的结构确实有提升效果,而不同组合的attention之间的效果仅有略微的差异。

  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值