注意力CBMA到底在网络中做了什么事

注意力CBAM到底在网络中做了什么事

  • CBAM网络架构
    • 通道注意力

      在这里插å
¥å›¾ç‰‡æè¿°

      空间注意力:

      在这里插å
¥å›¾ç‰‡æè¿°

  • 分析

    • 通道注意力:

      • 1.将特征图进行最大池化和平均池化

        ​ SENet也使用了通道注意力, 但SENet只采用了平均池化,没有采用最大池化。作者加入了最大池化的原因,在论文中写到是因为在实验中发现加入了最大池化效果更好,或许是因为加入了最大池化获取的信息更丰富。最大池化和平均池化都是global级的,因此相当于一个通道上所有的特征图会压缩成一个像素的特征,n个通道对应n个像素的特征。

      • 2.将池化后的输出经过多层感知器(全连接层)

        作用是学习参数

      • 3.经过一个softmax函数

        目的是获取重要程度

      为什么起作用:
      注意力机制实际上就是集中注意到某一个局部,换句话说就是不平等的对待总体的输入,例如,对于一个通道注意力模块来说,对于某特征图输入的所有通道的特征图来说,重视程度是不同的,对于某些通道更重视,权重更大,对于另外某些通道来说就不重视,权重较小,softmax函数的作用就是生成对于各个通道重视程度的概率
    • 空间注意力

      • 首先沿着通道级别最最大池化和平均池化

        沿着通道做,将n个通道HxW的图像压缩为一个单通道的HxW的图像,经过一个1x1的卷积层学习参数,在经过softmax获取HxW上个像素点的重要程度,原理同通道注意力一样。

  • 0
    点赞
  • 32
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值