参考博客:https://blog.csdn.net/u013738531/article/details/82731257
pytorch代码:https://github.com/luuuyi/CBAM.PyTorch
1. 概述
本论文提出了一种简单但有效的注意力网络---Convolutional Block Attention Module(CBAM)。给定一个中间的特征图,我们的模块沿着两个不同的维度依次计算注意力图,分别是通道上和空间上,然后将输出的注意力图与输入的特征图相乘,这样做是为了可以自适应特征改进。由于CBAM是轻量级的,因此它可以融合到任何一个CNN架构中,并且有可忽略不计的开销。
卷积神经网络在很大程度上推动了计算机视觉任务的发展,最近的研究主要研究了网络的三个重要因素:深度,宽度,维度。
深度的代表:VGG,ResNet;宽度的代表:GoogLeNet;维度的代表: Xception, ResNeXt。
除了上述三点,我们研究了架构设计的不同方面:注意力。注意力不仅告诉我们要注意到哪块,而且提高感兴趣区域的代表性。我们的目标是通过使用注意机制来增加表现力:注意到重要的特征同时压缩不必要的特征