SE注意力机制(笔记)

本文详细介绍了SENet的工作流程,首先通过卷积操作将4*4*3的输入图像转化为3*3*3的特征图,接着进行squeeze操作,使用全局平均池化压缩通道信息。然后通过excitation步骤,利用Sigmoid激活函数生成0-1之间的通道重要性权重,这些权重用于加权原始特征图的每个通道,从而实现通道注意力。SE注意力机制重点关注通道信息,但忽略了位置信息的影响。
摘要由CSDN通过智能技术生成

最近学习se注意力,做个笔记记录一下。

上图即为SEnet的整个流程,接下来开始讲解se注意力机制,首先我们输入一张彩色图片,假设图片尺寸为4*4*3(H'=4,w'=4,c'=3),经过一个卷积操作Ftr(卷积核为2),后变成3*3*3(H=3,W=3,C=3)。

                  R                              G                               B                

接下来进行squeeze(压缩操作),通过全局平均池化来完成,将每个通道的H*W个像素值压缩为一个实数,公式如下

 得到Z1=5/9, Z2=5/3, Z3=4/9,得到一组1*1*3的实数。

接下来进行第二步excitation激励操作,将这组1*1*3的实数先降维到1*1*(3/r),再升维到1*1*3,最后经过Sigmoid激活函数归一化为一组0~1的实数,这组0~1的实数就对应了每个通道的重要性,1为很重要,0为不重要,将得到的实数乘到之前feature map上对应通道的每个像素值。即最后输出 =(H*W*C)*(1*1*C)。所以说SE注意力机制只是单方面的考虑通道信息,没有考虑位置信息。

  • 4
    点赞
  • 35
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值