CVPR2017原论文:Residual Attention Network for Image Classification
开源代码(caffe框架):https://github.com/fwang91/residual-attention-network
1.主要内容:
提出了残差注意力深度模型网络。
该网络具有以下特点:1)其由多个注意力模块堆叠而成,每个注意力模块能够捕获不同的注意类型。2)采用残差连接,避免梯度消失,能够扩展很大的深度,且能完成端到端的训练。
2.主体结构
如上图,有三个Attention Module构成。
每一个Attention Module 又由特征提取部分T和掩膜提取部分M构成。所以注意力模块的输出H为特征T和掩膜M的乘积,即:
掩膜提取部分的结构: