网络模型--Squeeze-and-Excitation Networks

Squeeze-and-Excitation Networks
https://arxiv.org/abs/1709.01507

ILSVRC 2017 image classification winner
https://github.com/hujie-frank/SENet

本文主要提出了一个新的网络模块 Squeeze-and-Excitation block,作用就是对不同 channel 给予不同的权重, selectively emphasise informative features and suppress less useful ones
网络简单,效果显著啊!

3 Squeeze-and-Excitation Blocks

首先来看看我们要解决的问题是如何描述的?
对于任意一个给定 transformation F
这里写图片描述
为了简化问题的描述,我们假定 F 为一个标准的卷积运算,我们用 V = [v 1 ,v 2 ,…,v C ] 表示学习到的一组滤波器,U = [u 1 ,u 2 ,…,u C ] 表示卷积的输出
这里写图片描述

输出 U 是将所有的 channels 综合到一起得到的(summation),所以通道的相关性被隐性的包含在 vc中,但是这些相关性又被滤波器捕获的空间相关性 交错在一起。
Since the output is produced by a summation through all channels, the channel dependencies are implicitly embedded in v c , but these dependencies
are entangled with the spatial correlation captured by the filters.
我们的目标就是确保网络能够 增加有用信息的重要性,这些信息将在后续网络层被利用,抑制那些不重要的信息
Our goal is to ensure that the network is able to increase its sensitivity to informative features so that they can be exploited by subsequent transformations, and to suppress less useful ones.

我们通过下面这个模块实现上述功能 Squeeze-and-Excitation Blocks
这里写图片描述

3.1. Squeeze: Global Information Embedding
为了分析 channel dependencies ,我们首先分析每个 channel的信息,从整体上来看看该 channel 的特征吧
因为每个滤波器只对应局部的感受野,所有U 的每个单元不能分析该感受野以外的 contextual information, 当网络前面层的感受野较小时这个问题变得更加的严重。为此我们首先压缩全局空间信息,将其变为一个 channel 描述子
we propose to squeeze global spatial information into a channel descriptor, 具体是由 global average pooling 来实现
这里写图片描述

3.2. Excitation: Adaptive Recalibration
为了充分利用 上面一步压缩后的信息,这里我们为了 fully capture channel-wise dependencies 设计了第二步运算。 该运算需要满足两个条件:1)足够的灵活(特别是能够学习channel之间的非线性相关性),2)它必须能够学习一个非相互排斥的关系,a non-mutually-exclusive relationship,因为 multiple channels are allowed to be emphasised opposed to one-hot activation 多通道可以共同抑制一个 激活相应,为此我们采用了一个 simple gating mechanism with a sigmoid activation
这里写图片描述
δ refers to the ReLU

最后是对每个通道乘以对应的权重系数
The final output of the block is obtained by rescaling the transformation output U with the activations

3.3. Exemplars: SE-Inception and SE-ResNet
SE-Inception
这里写图片描述

SE-ResNet
这里写图片描述

4 Model and Computational Complexity
这里写图片描述

总体上计算资源增加的不多。
SE-ResNet-50 requires ∼3.87 GFLOPs, corresponding to only a 0.26% relative increase over the original ResNet-50
对于 ResNet-50 , corresponding to a ∼10% increase in the total number of parameters

6 Experiments
ImageNet validation set
这里写图片描述

训练曲线
这里写图片描述

Single-crop error rates of state-of-the-art CNNs on ImageNet validation set
这里写图片描述

Activations induced by Excitation in the different modules of SE-ResNet-50 on ImageNet
这里写图片描述
这里写图片描述
对于 SENets 中的 Excitation 我们观察到以下三点信息:
1) the distribution across different classes is nearly identical in lower layers, e.g. SE_2_3
2)at greater depth, the value of each channel becomes much more class-specific as different classes exhibit different preferences to the discriminative value of features e.g. SE_4_6 and SE_5_1
3) SE_5_2 exhibits an interesting tendency towards a saturated state in which most of the activations are close to 1 and the remainder are close to 0
This suggests that SE_5_2 and SE_5_3 are less important than previous blocks in providing recalibration to the network.

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值