论文笔记——Squeeze-and-Excitation Networks(SE-Net)

在这里插入图片描述


论文下载:

https://arxiv.org/pdf/1709.01507.pdf

论文源码:

https://github.com/hujie-frank/SENet


论文摘要:

卷积神经网络(CNNs)的核心构造是卷积操作器(convolution operator)它使网络能够通过在每一层的局部接受域内融合空间和信道信息来构建信息特征。作者通过大量的研究发现,大部分改进的重点是提高整个特征层次的空间编码质量来增强CNN的表征能力。在这项工作中,作者关注的是通道关系,并提出了一个新的结构单元,称为“Squeeze-and-Excitation blocks”(压缩-激励SE块),这些块可以堆叠在一起,形成SE-Net架构,在不同的数据集之间极其有效地泛化。只需要略微增加计算成本,SE块为当时现有的最先先进的CNNs网络带来了显著的性能改善


SE-Net块:

提出的目的是通过明确地建模网络卷积特性的通道之间的相互依赖关系来提高网络生成表示的质量。下图为改模块的结构。

在这里插入图片描述

可以执行特征中心校准。通过挤压操作,产生一个通道描述符(channel descriptor)聚合特征图在H×W的空间维度中。

这个通道描述符(channel descriptor)的作用是产生一个全面性(global distribution)的channel-wise特征响应,允许所有层的全面接受域网络(the global receptive field)提供相应的特征。


SE-Net块相关公式:

v表示卷积核,x表示输入特征,其中*表示卷积,为了简化符号,省略了偏差项:

在这里插入图片描述

使用全局平均池化将整个通道压缩成一个通道描述符,第c个通道的表示如下:

在这里插入图片描述

下图为全面捕获通道依赖性信息所进行的操作,使用简单的闸门机制(gating mechanism)和sigmoid激活, δ为ReLU函数,σ为sigmoid激活:

在这里插入图片描述

最终的输出通过重新调节变换输出U得到:

在这里插入图片描述


添加SE块前后结构的对比:

左图为原始的Inception和SE-Inception架构的对比。右图为原始的ResNet和SE-ResNet架构的对比。
在这里插入图片描述

SE块的灵活性在于它可以直接应用于标准卷积外得到变换。作者为了说明这一点,将SE块集成到两个流行的Inception和ResNet中来开发SE-Net。

在烧蚀研究中探索了SE块集成设计:

在这里插入图片描述


实验结果:

卷积模块具体的参数以及架构细节:

在这里插入图片描述

为了进行公平的比较,对基线模型进行了重新培训,并在重新实现栏中报告了分数。SENet列是指添加了SE块的相应架构。括号中的数字表示重新实现基线后的性能改进。

在这里插入图片描述

SE块对不同深度基础网络的影响(以ResNet为例),表明SE块在不同深度上的网络上计算复杂度极小增加,始终提高性能

在这里插入图片描述

将研究SE块与另外两种最先进的架构Inception-ResNet-v2和ResNeXt的结合效果:

在这里插入图片描述


讨论部分:

研究SE-ResNet-50模型的样本激活,并考察它们在不同块不同类别下的分布情况。具体而言,作者从ImageNet数据集中抽取了四个类,这些类表现出语义和外观多样性,即金鱼,哈巴狗,刨和悬崖(图7中显示了这些类别的示例图像)。然后,从验证集中为每个类抽取50个样本,并计算每个阶段最后的SE块中50个均匀采样通道的平均激活(紧接在下采样之前),并在图8中绘制它们的分布。作为参考,作者也绘制所有1000个类的平均激活分布

在这里插入图片描述

在这里插入图片描述


  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值