CBAM论文解读

代码:https://github.com/Jongchan/attention-module

CBAM:convolutional block attention module,表示卷积模块的注意力机制模块,是一种结合了空间(spatial)和通道(channel)的注意力机制模块,相比于senet只关注通道(channel)的注意力机制可以取得更好的效果。

基于传统VGG结构的CBAM模块,需要在每个卷积层后面加该模块。

channel attention module:通道注意力模块

特征的每一个通道都表明一个专门的检测器,所以,通道注意力是关注什么样的特征是有意义的,为了汇总空间特征,作者采用了全局平均池化和最大池化两种方式来分别利用不一样的信息。

将输入的特征图input feature F: C*H*W,分别经过maxpool和avgpool得到两个C*1*1的通道描述。,然后分别经过MLP(MLP是一个两层的神经网络,第一层神经元个数为C/r,激活函数为Relu,第二层神经元个数为C.这两个层的神经网络是共享的),将MLP输出的特征进行基于elementwise的加和操作

  • 1
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值