CBAM:Convolutional Block Attention Module

CBAM是卷积神经网络的注意力模块,它结合了通道和空间注意力机制,提升特征学习能力。通过平均池化和最大池化获取通道注意力,卷积操作生成空间注意力,最终改善ResNet中ResBlock的性能。
摘要由CSDN通过智能技术生成

目录

1、注意力机制

2、论文解读

2.1 Channel Attention Module(通道注意力机制) 

2.2 Spatial attention channel

 2.3 CBAM integrated with a ResBlock in ResNet

2.4 实验结果



1、注意力机制

通俗的讲,注意力机制就是希望网络自动学出图片或文字序列中需要注意的地方。比如,人眼在观察一幅画时,不会将注意力平均分配到画中的每个像素,而是更多的将注意力放到人们关注的地方。

从实现的角度讲:注意力机制通过神经网络的操作生成一个掩膜mask,mask上的值打一个分,评价当前需要关注点的评分。

注意力机制可以分为:

  • 通道注意力机制:对通道生成掩膜mask,进行打分,代表是senet,Channel Attention Map
  • 空间注意力机制:对空间进行掩膜的生成,进行打分,代表是Spatial Attention Map
  • 混合域注意力机制:同时对通道注意力和空间注意力进行打分,代表有BAM,CBAM

2、论文解读

论文提出Convolutional Block Attention Module(CBAM),这是一种为卷积神经网络设计的,简单有效的注意力模块(Attention Module),对于卷积神经网络生成的feature map,CBAM从通道和空间两个维度来计算feature map的attention map,然后将feature map 和attention map相乘,进行自适应特征学习。CBAM是一个轻量的通用模块,适用于各种卷积神经网络中。  

实现过程如下:

image.png

对于一个中间层的feature map:对于一个中间层的feature map:F\in R^{C*H*W},CBAM将会顺序推理出1维的channel attention map M_{c}\in R^{C*1*1},以及2维的spatial attention map M_{s}\in R^{1*H*W},整个过程如下图所示:

image.png

2.1 Channel Attention Module(通道注意力机制) 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值