通道注意力与空间注意力模块

通道注意力模块

在这里插入图片描述
使用通道注意力模块的目的:为了让输入的图像更有意义,大概理解就是,通过网络计算出输入图像各个通道的重要性(权重),也就是哪些通道包含关键信息就多加关注,少关注没什么重要信息的通道,从而达到提高特征表示能力的目的。

简而言之:注意力机制可对特征进行校正,校正后的特征可保留有价值的特征,剔除没价值的特征。

通道注意力机制步骤:

  • 挤压(Squeeze)输入图像

    对输入特征图的空间维度进行压缩,这一步可以通过全局平均池化(GAP)全局最大池化(GMP)(全局平均池化效果相对来说会比最大池化要好),通过这一步。HxWxC的输入图像被压缩成为1x1x``C的通道描述符。下方公式输入为SxSxB的feature map:
    在这里插入图片描述
    ​ 将全局空间信息压缩到通道描述符,既降低了网络参数,也能达到防止过拟合的作用。

  • excitation通道描述符

    这一步主要是将上一步得到的通道描述符送到两个全连接网络中,得到注意力权重矩阵,再与原图做乘法运算得到校准之后的注意力特征图。

在这里插入图片描述

空间注意力模块

在这里插入图片描述
使用通道注意力的目的:找到关键信息在map上哪个位置上最多,是对通道注意力的补充,简单来说,通道注意力是为了找到哪个通道上有重要信息,而空间注意力则是在这个基础上,基于通道的方向,找到哪一块位置信息聚集的最多。

空间注意力步骤:

  • 沿着通道轴应用平均池化和最大池操作,然后将它们连接起来生成一个有效的特征描述符。

    注意:池化操作是沿着通道轴进行的,即每次池化时对比的是不同通道之间的数值,而非同一个通道不同区域的数值。

  • 将特征描述符送入一个卷积网络进行卷积,将得到的特征图通过激活函数得到最终的空间注意特征图。

在这里插入图片描述

具体来说,使用两个pooling操作聚合成一个feature map的通道信息,生成两个2D图: Fsavg大小为1×H×WFsmax大小为1×H×Wσ表示sigmoid函数,f7×7表示一个滤波器大小为7×7的卷积运算。

参考链接:

(1)https://blog.csdn.net/u011984148/article/details/109475440

(2)https://zhuanlan.zhihu.com/p/334349672

(3)https://zhuanlan.zhihu.com/p/101590167

349672

(3)https://zhuanlan.zhihu.com/p/101590167

  • 15
    点赞
  • 156
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值