注意力:一种将可用计算资源的分配偏向信号中信息量最大的分量的手段
注意力模块一般有两种:一种是空间注意力模块,一种是通道注意力模块,SE模块属于后者。SE-block:通过该机制,网络可以学习使用全局信息来选择性地强调信息特征,并抑制不太有用的特征。
SE-block流程:
- 特征图U(H’W’C’)首先通过Squeeze操作传递,在空间维度上聚集特征图,产生11C的通道描述符。
- 之后是激励操作,该机制将嵌入作为输入,并产生每个通道调制权重的集合。
- 这些权重被应用于原本的特征图U,以生成SE-block的输出,该输出可以被直接送到网络的后续层。
----普通的深度学习网络可以通过简单地堆叠SE块的集合构建SE网络;此外,SE块还可以作为原始块的代替
----在早期的层中,以类不可知的方式激发信息特征,加强共享的低级表示。在后面的层中,SE模块变得越来越专业化,并以高度特定于类的方式响应不同的输入
SE-block优点:轻量级,即插即用,只略微增加了模型的复杂性和计算负担
输出是通过所有通道求和产生的,通道相关性隐含在vc中,与滤波器捕获的局部空间相关性纠缠在一起。通过卷积建模的通道关系本质上是隐式和局部的。SE-Block通过显式建模信道相关性来增强卷积特征的学习,使得网络能够增加其对信息特征的敏感性,该信息