05 Residual Attention Network for Image Classification学习笔记

论文网址:https://arxiv.org/pdf/1704.06904.pdf

参考文章地址:

  1. https://cloud.tencent.com/developer/article/1099661
  2. https://blog.csdn.net/wspba/article/details/73727469
  3. 翻译地址:https://blog.csdn.net/xiaotian127/article/details/103352730

基于keras实现网络的地址:RAN代码

(注意:因为现在还没有开源的成熟代码(只有一个caffe的开源代码),所以没有预训练好的模型,使用这个网络可能需要自己重头开始训练,我从600张图片测试时,效果并没有那么好) 


主要是搞清楚Attention module、attention residual learning、mask分支的结构。作者为了将用于序列、姿态识别等attention机制引入到图像分类中,提出了Attention Module,在Attention Module中,为了避免简单堆叠造成的性能下降,所以有借鉴了resnet中的残差学习,文中将其改进为注意残差学习(attention residual learning), 同时为了也在Attention Module使用了双分支的结构,分为主干分支和mask分支,关键就是通过mask分支实现了注意力聚焦在目标上的方法。在mask分支中通过先下采样再上采样的结构,最后用一个softmax(mixed attention),将mask分支的结果范围限定在[0,1]之间,然后再通过注意残差学习合并分支,这就完成了一个完整的Attention Module。然后再以Attention Module和residual unit相结合的方式最终就构造出了residual attention network(RAN)。 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值