参考: 1.https://blog.csdn.net/qq_27353621/article/details/125634824 Attention机制 注意力机制的本质就是定位到感兴趣的信息,抑制无用信息,结果通常都是以概率图或者概率特征向量的形式展示, 1.空间注意力 仿射为什么是空间注意力机制? 2. 通道注意力 本质在于建模了各个特征之间的重要性,对于不同的任务可以根据输入进行特征分配 先压缩成1x1xc的,再得到w,再应用于全部通道层