SE压缩和激励网络

SE(Squeeze-and-Excitation Networks)即压缩和激励网络

SE分为:压缩(Squeeze)、激励(Excitation)、scale及相乘特征融合操作

SE具有attention注意力机制:SE可以实现注意力机制最重要的两个地方一个是全连接层,另一个是相乘特征融合 假设输入图像H×W×C,通过global pooling+FC层,拉伸成1×1×C,然后再与原图像相乘,将每个通道赋予权重。在去噪任务中,将每个噪声点赋予权重,自动去除低权重的噪声点,保留高权重噪声点,提高网络运行时间,减少参数计算。这也就是SE模块具有attention机制的原因

SE模块主要为了提升模型对channel特征的敏感性,这个模块是轻量级的,而且可以应用在现有的网络结构中,只需要增加较少的计算量(但是会增加较大参数量)就可以带来性能的提升

讲解视频:https://www.bilibili.com/video/BV1sR4y1K76X/?spm_id_from=333.788.recommend_more_video.-1&vd_source=cbe7bc3c36a12cce62d03f0c59264052

 

     SENet的全称是Squeeze-and-Excitation Networks,中文可以翻译为压缩和激励网络。主要由两部分组成:

  1. Squeeze部分。即为压缩部分,原始feature map的维度为HWC,其中H是高度(Height),W是宽度(width),C是通道数(channel)。Squeeze做的事情是把HWC压缩为1*1*C,相当于把HW压缩成一维了,实际中一般是用global average pooling实现的。HW压缩成一维后,相当于这一维参数获得了之前H*W全局的视野,感受区域更广。

  2. Excitation部分。得到Squeeze的1*1*C的表示后,加入一个FC全连接层(Fully Connected),对每个通道的重要性进行预测,得到不同channel的重要性大小后再作用(激励)到之前的feature map的对应channel上,再进行后续操作。

      上图中,左半部分是正常的ResNet,右半部分是加入SE模块后的ResNet

压缩(Squeeze)

     这个操作就是一个全局平均池化(global average pooling);

     经过GAP,特征图被压缩为1×1×C向量。

 

激励(Excitation)

     接下来就是激励(Excitation)操作;

     由两个全连接层组成,其中SERatio是一个缩放参数,这个参数的目的是为了减少通道个数从而降低计算量。 第一个全连接层有C*SERatio个神经元,输入为1×1×C,输出1×1×C×SERadio。 第二个全连接层有C个神经元,输入为1×1×C×SERadio,输出为1×1×C。

Scale及相乘特征融合操作

     这个操作就是将激励步骤得到的每个通道的权重,与原特征图的对应通道的二维矩阵相乘,得到输出H*W*C(维度和输入一致),再与原输入X进行相加,得到最后的输出

     具体:激励操作得到1×1×C向量之后,就可以对原来的特征图进行scale操作了。很简单,就是通道权重相乘,原有特征向量为W×H×C,将SE模块计算出来的各通道权重值分别和原特征图对应通道的二维矩阵相乘,得到的结果再与原输入X相加得到最后的输出。 这里我们可以得出SE模块的属性: 参数量 = 2×C×C×SERatio 计算量 = 2×C×C×SERatio 总体来讲SE模块会增加网络的总参数量,总计算量,因为使用的是全连接层计算量相比卷积层并不大,但是参数量会有明显上升,所以MobileNetV3-Large中的总参数量比MobileNetV2多了2M。

  • 5
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
SE注意力机制(Squeeze-and-Excitation)是一种用于增强深度神经网络性能的注意力机制。它通过学习通道间的关系来自适应地调整每个通道的重要性,从而提高网络的表达能力。SE注意力机制主要由两个步骤组成:压缩激励。 在压缩步骤中,SE注意力机制通过全局平均池化操作将每个通道的特征图压缩为一个标量值。这个标量值表示了该通道的全局重要性。 在激励步骤中,SE注意力机制使用一个全连接层将压缩后的特征传递给一个Sigmoid激活函数。这个激活函数将输出一个0到1之间的权重值,用于调整每个通道的特征图。 CBAM注意力机制(Convolutional Block Attention Module)是一种结合了空间注意力和通道注意力的注意力机制。它通过同时考虑特征图的空间和通道信息来提高网络的表达能力。 CBAM注意力机制主要由两个模块组成:通道注意力模块和空间注意力模块。 通道注意力模块通过全局平均池化操作将每个通道的特征图压缩为一个标量值,然后使用一个全连接层和Sigmoid激活函数来生成通道注意力权重。这些权重用于调整每个通道的特征图。 空间注意力模块通过使用一个3x3的卷积操作来捕捉特征图的空间信息。然后,通过一个全连接层和Sigmoid激活函数来生成空间注意力权重。这些权重用于调整特征图的每个空间位置。 SE注意力机制和CBAM注意力机制都可以用于增强深度神经网络的性能,但在不同的网络结构和任务中可能会有不同的效果。在大多数情况下,直接在网络中加入SE注意力机制可以获得性能的提升。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小椰AI

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值