代码:https://github.com/Jongchan/attention-module
CBAM:convolutional block attention module,表示卷积模块的注意力机制模块,是一种结合了空间(spatial)和通道(channel)的注意力机制模块,相比于senet只关注通道(channel)的注意力机制可以取得更好的效果。
基于传统VGG结构的CBAM模块,需要在每个卷积层后面加该模块。
channel attention module:通道注意力模块
特征的每一个通道都表明一个专门的检测器,所以,通道注意力是关注什么样的特征是有意义的,为了汇总空间特征,作者采用了全局平均池化和最大池化两种方式来分别利用不一样的信息。
将输入的特征图input feature F: C*H*W,分别经过maxpool和avgpool得到两个C*1*1的通道描述。,然后分别经过MLP(MLP是一个两层的神经网络,第一层神经元个数为C/r,激活函数为Relu,第二层神经元个数为C.这两个层的神经网络是共享的),将MLP输出的特征进行基于elementwise的加和操作