SENet

SENet

扩展阅读:最后一届ImageNet冠军模型:SENet
在本文中,我们研究了网络设计的另一个方面——通道之间的关系。我们引入了一个新的架构单元,我们称之为Squeeze-and-Excitation(SE)块,目的是通过显式模拟其卷积特征通道之间的相互依赖关系来提高网络产生的representations的质量。为此,我们提出一种机制,允许网络执行特征重新校准,通过这种机制,它可以学习使用全局信息,有选择地强调有用的特征,并抑制不太有用的特征。

SE构件的结构如图1所示。

在这里插入图片描述

对于任意给定的变换 F t r F_{tr} Ftr(如卷积) 将输入X映射到特征U,其中 U ∈ R H × W × C U \in R^{H \times W \times C} URH×W×C ,我们可以构造一个相应的SE块来进行特征重新校准。特征U首先通过挤压(squeeze)操作,通过对其空间维度(H×W)的特征图进行聚合,生成channel descriptor。descriptor的功能是产生一个全局分布的channel-wise特征响应的嵌入,使网络的全局receptive field的信息能够被网络的所有层使用。aggregation之后是excitation操作,它采用简单的a simple self-gating mechanism的形式,将嵌入作为输入,并产生每个通道的modulation weights的集合。这些权重被应用到特征图U上,以产生SE块的输出,而SE块的输出可以直接反馈到网络的后续层中。

3 SQUEEZE-AND-EXCITATION BLOCKS

Squeeze-and-Excitation块是一个计算单元,它可以建立在转换映射 F t r F_{tr} Ftr 输入 X ∈ R H ′ × W ′ × C ′ X\in R^{H'\times W'\times C'} XRH×W×C 到特征映射 U ∈ R H × W × C U\in R^{H \times W\times C} URH×W×C 的基础,在接下来的符号中我们把 F t r F_{tr} Ftr 看作卷积运算符,用 V = [ v 1 , v 2 , . . . , v C ] V=[v_1,v_2,...,v_C] V=[v1,v2,...,vC] 表示所学习的filter kernels集,其中 v c v_c vc为第c个滤波器的参数。我们可以把输出写出 U = [ u 1 , u 2 , . . . , u C ] U=[u_1,u_2,...,u_C] U=[u1,u2,...,uC]

u c = v c ∗ X = Σ s = 1 C ′ v c s ∗ x s u_c = v_c*X = \Sigma^{C'}_{s=1}v^s_c*x^s uc=vcX=Σs=1Cvcsxs

这里*代表卷积, v c = [ v c 1 , v c 2 , . . . , v c C ′ ] v_c=[v_c^1,v_c^2,...,v_c^{C'}] vc=[vc1,vc2,...,vcC] X = [ x 1 , x 2 , . . . , x C ′ ] X=[x^1,x^2,...,x^{C'}] X=[x1,x2,...,xC] u c ∈ R H × W u_c\in R^{H\times W} ucRH×W v c s v_c^s vcs v c v_c vc的单个通道的一个二维空间核,作用于X的相应通道。为了简化符号,省略了偏置项。由于输出是通过所有通道的总和产生的,所以通道依赖关系隐式地嵌入在 v c v_c vc中,但与filters捕获的空间位置关系纠缠在一起。由卷积建模的通道关系本质上是隐式的和局部的(除了最顶层的那些)。我们期望通过显式地对通道相关性建模来增强对卷积特性的学习,从而使网络能够增加对可由后续转换利用的信息特性的敏感性。因此,我们希望为其提供全局信息的访问,并分两步重新校准过滤器的响应。squeeze 和 excitation,在它们被送入下一个转换之前,SE块的结构示意图如图1所示

3.1 Squeeze: Global Information Embedding

每一个训练过的卷积核都在局部感受野中进行,因此,每一个变换输出单元U都无法利用该区域以外的上下文信息。

为了缓解这个问题,我们建议将全局空间信息压缩到一个通道descriptor中。这是通过使用全局平均池化来生成按channel-wise的统计数据来实现的。形式上是一个统计量 z ∈ R C z\in R^C zRC 是通过U的空间维数H X W来缩小U,从而得到z的第c个元素,计算方法为:

z c = F s q ( u c ) = 1 H × W Σ i = 1 H Σ j = 1 W u c ( i , j ) z_c=F_{sq}(u_c)=\frac{1}{H\times W}\Sigma^H_{i=1}\Sigma^W_{j=1}u_c(i,j) zc=Fsq(uc)=H×W1Σi=1HΣj=1Wuc(i,j) (2)

讨论。U的输出可以解释为局部描述符的集合,这些描述符的统计信息表示整个图像。利用这些信息在之前的特征工程工作中是很普遍的,[61],[62]。我们选择了最简单的聚合技术,全局平均池化,注意到这里也可以使用更复杂的策略。

3.2 Excitation: Adaptive Recalibration

为了利用在squeeze操作中聚合的信息,我们在此之后进行第二个操作,其目的是完全捕获通道依赖关系。实现这个目标的函数必须满足两个条件:第一,它必须灵活(特别是,它必须有能力学习通道之间的非线性相互作用),第二,它必须学习一种非互斥的关系,因为我们希望确保多个通道被强调(而不是强制执行one-hot激活)。为了满足这些标准,我们选择采用了简单的门控机制,并采用了 sigmoid激活

s = F e x ( z , W ) = σ ( g ( z , W ) ) = σ ( W 2 δ ( W 1 z ) ) s=F_{ex}(z,W)=\sigma(g(z,W))=\sigma(W_2\delta(W_1z)) s=Fex(z,W)=σ(g(z,W))=σ(W2δ(W1z)) (3)

其中 δ \delta δ 对应ReLU函数, W 1 ∈ R C r × C W_1\in R^{\frac{C}{r}\times C} W1RrC×C W 2 ∈ R C × C r W_2\in R^{C\times\frac{C}{r}} W2RC×rC

为了限制模型的复杂度和加强泛化能力,我们通过在非线性周围形成两个完全连接的bottleneck (FC)层来对门控机制进行参数化,即一个维度缩小层,缩小率为r(这个参数选择在第6.1节中讨论),一个ReLU,然后一个维度扩展层返回到变换输出U的通道维度。块的最终输出是通过对U的激活量s进行重新缩放得到的

x c ~ = F s c a l e ( u c , s c ) = s c u c \tilde{x_c}=F_{scale}(u_c,s_c)=s_cu_c xc~=Fscale(uc,sc)=scuc (4)

X ~ = [ x 1 ~ , x 2 ~ , . . . , x C ~ ] \tilde{X}=[\tilde{x_1},\tilde{x_2},...,\tilde{x_C}] X~=[x1~,x2~,...,xC~] F s c a l e ( u c , s c ) F_{scale}(u_c,s_c) Fscale(uc,sc) 表示标量 s c s_c sc与特征映射 u c u_c uc之间的信道乘法

讨论。激励算子将输入特定描述符z映射到一组通道权值。在这方面,SE块本质上引入了依赖于输入的动态,它可以被看作是卷积滤波器响应的不局限于局部感受野的通道上的一个自注意力函数。

在这里插入图片描述

3.3 Instantiations

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值