【论文复现】CBAM: Convolutional Block Attention Module

CBAM: Convolutional Block Attention Module

论文原文

代码实现:PyTorch

Abstract

这是今年ECCV2018的一篇文章,主要贡献为提出一个新的网络结构。之前有一篇论文提出了SENet,在feature map的通道上进行attention生成,然后与原来的feature map相乘。这篇文章指出,该种attention方法只关注了通道层面上哪些层会具有更强的反馈能力,但是在空间维度上并不能体现出attention的意思。CBAM作为本文的亮点,将attention同时运用在channel和spatial两个维度上,CBAM与SE Module一样,可以嵌入了目前大部分主流网络中,在不显著增加计算量和参数量的前提下能提升网络模型的特征提取能力。

近几年,随着CNN的兴起,很多结构新颖、有效的网络结构被提出,比如ResNet、ResNext等;最近,大部分论文证明了在网络结构中引入attention机制可以提升网络模型的特征表达能力。attention不止能告诉网络模型该注意什么,同时也能增强特定区域的表征。本文的CBAM在channel和spatial两个维度上引入了attention机制。CBAM结构概览如下所示:

1

作者在ImageNet-1K上进行了测试,证明增加CBAM模块以后目前大部分网络的分类错误率都有一定程度的降低。同时通过grad-CAM进行可视化分析,可以发现增加CBAM模块的网络模型在推理过程中会将注意力更准确的放在正确待分类对象上。通过额外的实验(MS COCO和VOC 2007),作者也证明了增加CBAM在目标检测中也能取得更好的检测效果。

总结一下,本文的贡献点主要有以下三点:

  1. 提出了一个高效的attention模块—-CBAM,该模块能够嵌入到目前的主流CNN网络结构中。
  2. 通过额外的分离实验证明了CBAM中attention的有效性。
  3. 在多个平台上(ImageNet-1K,MS COCO和VOC 2007)上证明了CBAM的性能提升。

感兴趣的同学可以关注原论文。

Convolutional Block Attention Module

当输入 F F 作为input feature map时,本文提出的CBAM主要对其进行以下两个运算:

2

其中等号右边的操作符表示的是element-wise的点乘。Mc表示在channel维度上做attention提取的操作, Ms M s 表示的是在spatial维度上做attention提取的操作。下图分别表示了Channel Attention Module和Spatial Attention Module的处理过程。

3

Channel attention module

这部分的工作与SENet很相似,都是首先将feature map在spatial维度上进行压缩,得到一个一维矢量以后再进行操作。与SENet不同之处在于,对输入feature map进行spatial维度压缩时,作者不单单考虑了average pooling,额外引入max pooling作为补充,通过两个pooling函数以后总共可以得到两个一维矢量。global average pooling对feature map上的每一个像素点都有反馈,而global max pooling在进行梯度反向传播计算只有feature map中响应最大的地方有梯度的反馈,能作为GAP的一个补充。

具体做法如下,以 F F 表示输入feature map,Favgc Fcmax F m a x c 分别代表经过global average pooling和global max pooling计算后的feature, W0 W 0 W1 W 1 代表的是多层感知机模型中的两层参数,在这部分的计算可以用如下公式表示:

4

值得注意的是,多层感知机模型中 W0 W 0 W1 W 1 之间的feature需要使用ReLU作为激活函数去处理。

Spatial attention module

这部分工作是论文跟SENet区别开来的一个重要贡献,除了在channel上生成了attention模型,作者表示在spatial层面上也需要网络能明白feature map中哪些部分应该有更高的响应。首先,还是使用average pooling和max pooling对输入feature map进行压缩操作,只不过这里的压缩变成了通道层面上的压缩,对输入特征分别在通道维度上做了mean和max操作。最后得到了两个二维的feature,将其按通道维度拼接在一起得到一个通道数为2的feature map,之后使用一个包含单个卷积核的隐藏层对其进行卷积操作,要保证最后得到的feature在spatial维度上与输入的feature map一致,如同上图中下部分网络所示。

定义经过max pooling和average pooling操作后的feature map为, FsavgR1HW F a v g s ∈ R 1 ∗ H ∗ W FsmaxR1HW F m a x s ∈ R 1 ∗ H ∗ W ,该部分的数学处理可以用以下公式表示:

5

σ σ 表示的是sigmoid激活函数,该部分显示的卷积层使用了7x7的卷积核,其实后面的实验中作者也是用了3x3的卷积核进行实验,总体来说7x7的卷积会表现更好。

Arrangement of attention modules

两个attention的module,以何种顺序去设置和组合同样很重要,作者在之后的实验中,也体现了channel-first、spatial-first和parallel的实验结果。

Experiments

这部分展示了论文的实验,作者总共在三个平台上对CBAM模块进行测试。首先作者展示了CBAM的有效性,然后对CBAM中的组合结构进行了分离实验。下图中展示了将CBAM嵌入到ResNet结构中的示意图。

6

在ImageNet-1K的实验中,作者在测试时对验证集的处理为size为224x224的center crop,初始学习率为0.1,每隔30个epochs下降为之前的0.1倍,总共训练90个epochs。

Channel attention

这部分作者对比了论文的channel attention方法,主要以ResNet50作为baseline,同时对比了SE-ResNet50和本文的两个实验,分别是ResNet50+MaxPool和ResNet50+MaxPool & AvgPool,实验结果如下所示:

7

通过与baseline的对比可以发现,attention方法能提升网络的表征能力,在其中使用了AvgPool作为spatial压缩的方法对比MaxPool体现出了更好的优越性,当将两者结合在一起以后网络的表征能力.

Spatial attention

这一部分在channel attention的基础上讨论了spatial attention的内部组成对全局的影响,实验结果如下:

8

k表示了最后用于得到feature map的卷积层中卷积核的大小,倒数四行中括号的第一个操作,分别表示作者使用avg&max或者1x1的卷积层去将输入feature map进行通道上的压缩。最终,使用了7x7的卷积核和avg&max的通道压缩方式可以得到最好的分类结果,表示了更大的卷积核在深层上能够组合更加全局的特征,这对分类任务是证明有效的。

Arrangement of the channel and spatial attention

关于channel attention module和spatial attention module的组合顺序,论文也做了实验,实验结果如下:

9

在SE-ResNet50作为baseline的对比中,作者考虑了三种情况:channel-first、spatial-first和parall的方式,可以看到,channel-first能取得更好的分类结果。

Conclusion

总的来说,这篇论文提出的CBAM还是挺有意思的,能更直观、更有逻辑性的表达了网络的设计思路,就是在channel和spatial维度上都生成attention map对输入特征进行约束增强处理。同时,作者也展示了这种方法在多种任务上都能取得较好的成绩。总的来说是一篇不错的文章。

  • 48
    点赞
  • 277
    收藏
    觉得还不错? 一键收藏
  • 23
    评论
### 回答1: CBAM是卷积块注意力模块的缩写,是一种用于交替堆叠到深度卷积神经网络(CNNs)中的模块。它包含两个子模块:通道注意力模块和空间注意力模块。通道注意力模块用来对每个通道进行加权,确定哪些通道最重要。空间注意力模块在每个通道中对所有空间位置进行加权,可以捕捉不同位置的重要性,从而更好地定位物体。 CBAM的优点在于,它能够提高CNNs的性能,减少了过度拟合的情况。CBAM结构的输入任意大小、任意通道数、任意深度,因此可以适用于各种计算机视觉任务,包括图像分类,物体检测和语义分割等。 总之,CBAM是一种具有高灵活性和高性能的卷积块注意力模块,能够极大地增强CNNs的表达能力,提高计算机视觉任务的准确性。 ### 回答2: CBAMConvolutional Block Attention Module),是一种用于图像分类的Attention模块,它主要是用于增强卷积神经网络(CNN)的特征表达能力,使得CNN能够更好地区分不同种类的图像。 CBAM结构由两部分组成,分别是CBAM-Channel和CBAM-Spatial。在CBAM-Channel中,它通过引入注意力机制,对每个通道的特征进行加权求和,并且使用全局平均池化操作,计算其重要性参数,进而对特征进行修正,从而提升模型的表达能力。CBAM-Spatial则通过空间注意力机制对图像中的区域进行注意力分配权重,进一步优化模型的性能。 CBAM在图像分类方面的性能表现非常卓越。实验证明,在对比原始ResNet和ResNeXt网络,以及加入CBAM的ResNet和ResNext网络进行图像分类时,加入CBAM的ResNet和ResNeXt网络具有更强的表达能力和更高的分类准确性,同时,它在训练过程中的收敛速度也有所提升。 总的来说,CBAM是一种非常有效的图像分类模块,利用注意力机制对CNN的特征进行增强,为图像分类任务提供了更好的性能表现。随着人工智能的迅速发展,CBAM在图像识别、物体检测等领域将具有广阔的应用前景。 ### 回答3: CBAM是卷积块注意力模块的缩写,它是一种用于图像分类和目标检测的神经网络模型。CBAM模块通过将通道和空间注意力机制组合在一起,从而有效地提高了模型的性能。 CBAM模块分为两个部分:通道注意力机制和空间注意力机制。通道注意力机制是针对图像特征中的通道信息进行关注,它可以基于每个通道的特征图来计算权重,然后对于每个通道进行信息的调整和加权。这样,在网络中的每个层次上都能更好地利用有用的通道信息,减少无用信息对网络性能的影响。 空间注意力机制是针对图像特征中的空间信息进行关注。它能够自适应地计算每个像素点的权重,然后对于每个像素点进行信息的调整和加权。这样,网络中的每个空间位置都能更好地利用有用的空间信息,提高目标检测和分类的准确率。 通过组合这两种注意力机制,CBAM模块能够区分有用和无用的特征,从而在图像分类和目标检测任务中取得更好的性能。CBAM模块通常被用在深度卷积神经网络中,例如ResNet以及MobileNet等,以提高整个网络中的特征提取能力和分类性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 23
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值