在DNN中嵌入注意力模块可以有效提高性能,但是也增大了模型复杂度,于是作者提出了一种新的轻量级和有效的注意模块PSA。
1.PSA模块结构
首先使用自定义的SPC模块获得通道方向上的多尺度特征图,然后利用SEWeight模块提取不同尺度特征地图的注意力,得到通道方向的注意力向量,再通过使用Softmax重新校准通道方向的注意向量,获得多尺度通道的重新校准权重。最后应用于重新校准的重量和相应的特征图,以得到多尺度特征信息更丰富的细化特征图。
2.SPC模块
以多分支的方式提取输入特征图的空间信息,每个分支的输入通道维度为C,获得更丰富的输入张量位置信息,并对其进行多尺度并行处理。在金字塔结构中使用多尺度卷积核可以生成不同的空间分辨率和深度。最后具有不同比例尺Fi的每个特征图具有公共通道维数C'=C/S。对于每个分支,它独立地学习多尺度空间信息,并以局部方式建立跨通道交互。为了降低数据量,引入组卷积。多尺度内核大小第i个内核大小ki=2×(i+1)1和组大小之间的关系可以写成
公式为
然后多尺度信息合并
3.SEWeight
结构:SENet的结构,首先全局平均池化,然后两层全连接层。
作用:通过从多尺度预处理特征图中提取通道注意权重信息,得到不同尺度的注意权重向量。
然后整合
使用Softmax软分配权重
对特征重定标的通道注意进行融合拼接,得到完整的通道注意向量
最后将多尺度通道注意力atti的重新校准权重与相应尺度Fi的特征映射相乘为
最后拼接输出。