soft-Attention 是参数化的(Parameterization),因此可导,可以被嵌入到模型中去,直接训练。梯度可以经过Attention Mechanism 模块,反向传播到模型其他部分。与分类、回归训练原理完全一致。
Squeeze - and - Excitation Network (SENet)
SENet旨在通过使网络能够动态调制各通道的权重(通道注意力),从而重新校准特征来提高网络的表达能力。采用全局平均汇集特征来计算通道方向的注意。
BAM(Bottleneck Attention Module)
CBAM (convolution block attention module)