CBAM: Convolutional Block Attention Module
摘要:提出了卷积注意力模块 简答高效的前向卷积神经网络,feature-map推理的特征图有两个维度,分别是空间和通道注意力机制,因为注意力模块是轻量化的不增加网络负担,可以整合到CNN的任意位置,实验说明整个模块的有效性和实用性。
引文
基于丰富的特征表达能力CNN推动了多项视觉任务的发展,为了增强CNN的表现,深度、宽度、基数三个重要的因素。自从LeNet网络以来到现在残差式的网络,为了更好特征表达,网络的深度越来越深,VGGNet的相同维度的堆叠块产生的相同的结果。遵循相同的策略,Resnet堆叠相同的残差结构和跳连结构形成更深的结构。GooleNet展示出宽度是提高性能的一个因素,Zagoruyko and Komodakis [6]提出增加宽度在ResNet的结构上,展示了1001层的高性能。Xception [11] and ResNeXt [7]提出增加网络的基数, 表明增加基数可以增加网络的性能优于增加宽度和深度的方法。
除了上述因素,我们提出网络不同方面,注意力机制,早在【12-17】文章中研究了,注意力不仅可以告诉哪里需要关注,并提供了更高的关注度。我们的目标是增强表征能力通过注意力机制,我们提出了注意力模块,因为混合跨通道和空间提取信息特征,我们采用两个维度来加强有意义的信息,为了更好的应用两个维度,可以实现位置和内容的加强和抑制
在ImageNet-1K数据集,从不同的基准方法提高精度,显示了CMAM的效率,使用the grad-CAM [18]可视化训练,观察CBAM模块更加关注目标物体相较于基准方法,考虑到这一点 我们认为性能的提升来源于噪声的减少和精确的注意力,最后在voc2007数据集 ,展示了CMAM的通用性,因为模型为轻量化的,参数和计算的增加基本可以忽略。
贡献:
第一 提出高效的CBAM网络,提升CNN的性能
第二 通过消融实验 验证其有效性
第三 在多个网络上,能够有效的提升 通过插入轻量级的模块
2 相关工作