SENet论文笔记

《Squeeze-and-Excitation Networks》

该文章提出了一种新颖的网络结构,用于对每个通道的特征进行加权处理。在网络的训练过程中,会得到不同数量通道特征,在进行识别的过程中,每一个通道的特征的重要性都被视为是相同的来参与接下来的计算。SENet将不同特征通道的全局池化信息融合到了神经网络的训练过程中,从而能够利用网络的代价函数来对不同通道的权重进行训练。

网络结构:

这里写图片描述

结构解释

首先对于一个 H×W×C H ′ × W ′ × C ′ 的特征输入 X X ,进行Ftr操作,也就是常规的卷积操作,得到待处理的 W×H×C W × H × C 的特征图 U U 。接着对得到的U分别进行两种操作: Fsq F s q Fscale F s c a l e

首先是 Fsq F s q 操作。作者在这里对于每一个通道都采用了一种全局平均池化的操作,即将特征图 U U C个通道分别进行全局平均池化的操作,得到了一个 1×1×C 1 × 1 × C 的特征图 z z 。数学表达形式如下:

zc=Fsq(uc)=1H×Wi=1Hj=1Wuc(i,j)

其中, uc u c 表示的是 U U 的第c个通道。
接着,就是SENet思想最关键的部分了,即SENet将 z z 作为一个全连接神经网络的输入,该神经网络的权重为W Fex(,W) F e x ( ∗ , W ) 表示的是一个全连接层的计算过程。

作者将 Fex(,W) F e x ( ∗ , W ) 的计算分成了两个部分,直观来看就是先对第一个全连接层进行计算,接着对第二个全连接层进行计算并输出结果为 1×1×C 1 × 1 × C 的特征图。具体公式如下所示:

s=Fex(z,W)=σ(g(z,W))=σ(W2δ(W1z)) s = F e x ( z , W ) = σ ( g ( z , W ) ) = σ ( W 2 δ ( W 1 z ) )

其中 δ δ 表示的是 RELU R E L U 函数, W1RCr×C W 1 ∈ R C r × C ,且 W2RRC×Cr W 2 ∈ R R C × C r 。计算得到的 s s 就是我们要求的不同通道特征图的权重系数。

得到了这个系数以后,通过与U对应通道上的特征图进行相乘,以此来表示不同通道的特征图的重要性程度。具体形式如下式所示:

Xc~=Fscale(uc,sc)=scuc X c ~ = F s c a l e ( u c , s c ) = s c ⋅ u c

其中 Xc~=[x1~,x2~,...,xc~] X c ~ = [ x 1 ~ , x 2 ~ , . . . , x c ~ ] 。函数 Fscale F s c a l e 表示的是将每个通道的权重值 scR s c ∈ R 与对应通道的特征图 ucRH×W u c ∈ R H × W 相乘。

与其他网络结构进行组合

与GoogleNet的Inception网络结构组合,得到的网络结构如下图所示:
这里写图片描述

与ResNet网络的Block进行组合得到的网络结构如下图所示:
这里写图片描述

结论

加入该网络结构后,可以提高网络的性能。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值