Squeeze-and excitation network

Squeeze-and excitation network

introdutcion

motivation:当前一些研究表明,将attention机制引入网络中来捕获特征之间的空间相关性可增强CNN的表征,但本文希望建立channels之间的关系。

整体的SE block的图:

如上图所示:变换函数Ftr将输入x转化为特征U,U的shape为h*w*c。随后U经两个分支,在上面的分支中,U先经squeeze operation,产生通道级描述(a channel descriptor),再经an excitation operation,对每个通道产生权重。最后将产生的权重与下面分支出来的特征U相乘,得到SE block的输出。

实验数据集:imagenet

squeeze-and-excitation blocks

1.得到指定维度的输出U

Ftr:将输入X转换为shape=H*W*C的特征图U, Ftr定义为卷积操作。(对应到resnet中这一部分可以理解为一系列的卷积+激活+bn操作,目的是得到变化后的特征U)

2.squeeze操作

目的:获取channel dependencies。squeeze这里执行了global average pooling,从而将h和w维度置为1,来得到C维向量z,z中每一个值:

3.excitation操作

目的:fully capture channel-wise dependencies。

这里 δ是relu,增加非线性。W1的shape=C/r *c,W2的shape= C * C/r,可以理解为先对通道降维再升维,来减少参数计算。这里选用了两个FC层,具体就是a dimensionality-reduction(第一个fc) --relu (激活)-- a dimensionality-increasing layer(第二个fc)+sigmoid层(得到0-1间的分数),最终输出原channel维度大小的向量。

看代码发现,squeeze和exctitation都很简单啊~上代码:

这里的avg_pool对应squeeze操作,fc对应excitation操作,两步操作后得到的输出与原始输入的shape相同。

4.计算final output

5.将SE block引入到主流模型中

我们构建了SE-inception network和SE-resnet module

experiment

1.是否加SE block的对比

 

2.在imagenet上与state-of-the-art对比

个人想法:

1)resnet中,具体的se-layer是接在每个block中,最后一个bn层后面

2)在ucf101上测试过se,效果并不明显。一开始使用se时反而会掉点,后来过了段时间把se的每个通道权重打出来看了下,发现完全分布在0.5附近,且差异非常小。

 

 

  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Squeeze-and-Excitation(SE)是一种在卷积神经网络中使用的注意力机制,旨在通过调整通道的权重比,提升网络的表达能力。在SE模块中,包含了squeezeexcitation两个步骤。首先,squeeze步骤将通道维度的信息进行全局池化,得到一个描述整个张量的特征图。然后,excitation步骤通过对这个特征图进行处理,产生每个通道的权重向量,用于调节各个通道的重要性。这样,网络就可以自动学习并集中关注对任务有用的信息。 这种注意力机制可以帮助网络更好地捕捉到输入数据中的重要特征,提升模型的性能和效果。通过适当的调整通道权重,SE模块可以使网络更加关注重要的特征,并且抑制不重要的特征。这种机制在图像分类、目标检测和语义分割等任务中都有广泛的应用。 总的来说,squeeze-excitation是一种注意力机制,通过调整通道的权重比,使网络能够更好地捕捉到输入数据中的重要特征,提升模型的性能与效果。它在卷积神经网络中的应用已经取得了一定的成功,并在多个计算机视觉任务中得到了广泛应用。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [SE (Squeeze Excitation)模块](https://blog.csdn.net/zfjBIT/article/details/127560589)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] - *2* [Squeeze-and-Excitation Networks 论文思维导图](https://download.csdn.net/download/qq_34784753/11094899)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] - *3* [Squeeze_Excitation个人理解](https://blog.csdn.net/weixin_44106928/article/details/103271120)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值