SEnet 通道注意力机制

SENet 在于通过网络根据loss去学习特征权重,获取到每个feature map的重要程度,然后用这个重要程度去给每一个特征通道赋予一个权重值,从而让神经网络去重点关注某些feature map , 使得有效的feature map权重大,无效或效果小的feature map权重小,使模型达到更好的效果,同时也不可避免的增加了一些参数和计算量。

2.SENet注意力机制 结构

在这里插入图片描述

输入input是一个H x W x C 的特征,共C个通道,然后进行一个空间的全局平均池化,每个通道得到一个标量,输出为 1 x 1 x C , 然后再送入两层的全连接神经网络,同时保持size不变,然后再通过一个Sigmoid函数得到C个0~1之间的权重Mc,格式为1 x 1 x C,作为C个通道各自的权重,然后Mc x input得到输出feature map(对应通道的每个元素与权重分别相乘)。

2.1 squeeze:

在空间维度上进行特征压缩,得到1 x 1 x C 的通道描述,这个feature map具有全局的感受野,也就是说将一个通道上的整个空间信息压缩为一个全局特征,最后得到C个全局特征,采用global average pooling 实现。公式如下:

在这里插入图片描述

2.2 excitation:

squeeze得到1 x 1 x C的feature map 后,再通过FC -> Relu -> FC -> Sigmoid学习通道间的关系,第一个FC将1 x 1 x C 压缩为1 x 1 x C/r(r取16时效果最好) ,然后第二个FC再扩充为1 x 1 x C。

2.3 scale:

scale操作是将前面学习到的各个通道的权重系数Mc通过乘法与对应通道所有元素相乘,以便实现重要的特征增强,不重要的特征减弱 ,从而让提取的特征指向性更强。

3.code:
class SENet(nn.Module):
    def __init__(self , in_planes , ration = 16):
        super(SENet, self).__init__()

        '''
        AdaptiveAvgPool2d():自适应平均池化
                            不需要自己设置kernelsize stride等
                            只需给出输出尺寸即可
        '''

        self.avg_pool = nn.AdaptiveAvgPool2d(1) # 通道数不变,H*W变为1*1
        self.fc1 = nn.Conv2d(in_planes , in_planes // 16 , 1 , bias = False)
        self.relu1 = nn.ReLU()
        self.fc2 = nn.Conv2d(in_planes//16 , in_planes ,1, bias = False)
        self.sigmoid = nn.Sigmoid()
    def forward(self , x):
        avg_out = self.fc2(self.relu1(self.fc1(self.avg_pool(x))))
        return self.sigmoid(out)
  • 8
    点赞
  • 55
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值