CBAM: Convolutional Block Attention Module 论文阅读

本文介绍了CBAM(Convolutional Block Attention Module),这是一种用于增强卷积神经网络性能的轻量级注意力机制。CBAM通过通道和空间注意力两个维度提升特征表示能力,能被方便地整合到现有CNN结构中。实验表明,CBAM在ImageNet-1K和VOC2007数据集上提高了模型的精度,且具有良好的通用性和效率。
摘要由CSDN通过智能技术生成

CBAM: Convolutional Block Attention Module

摘要:提出了卷积注意力模块 简答高效的前向卷积神经网络,feature-map推理的特征图有两个维度,分别是空间和通道注意力机制,因为注意力模块是轻量化的不增加网络负担,可以整合到CNN的任意位置,实验说明整个模块的有效性和实用性。

 

引文

基于丰富的特征表达能力CNN推动了多项视觉任务的发展,为了增强CNN的表现,深度、宽度、基数三个重要的因素。自从LeNet网络以来到现在残差式的网络,为了更好特征表达,网络的深度越来越深,VGGNet的相同维度的堆叠块产生的相同的结果。遵循相同的策略,Resnet堆叠相同的残差结构和跳连结构形成更深的结构。GooleNet展示出宽度是提高性能的一个因素,Zagoruyko and Komodakis [6]提出增加宽度在ResNet的结构上,展示了1001层的高性能。Xception [11] and ResNeXt [7]提出增加网络的基数, 表明增加基数可以增加网络的性能优于增加宽度和深度的方法。

除了上述因素,我们提出网络不同方面,注意力机制,早在【12-17】文章中研究了,注意力不仅可以告诉哪里需要关注,并提供了更高的关注度。我们的目标是增强表征能力通过注意力机制,我们提出了注意力模块,因为混合跨通道和空间提取信息特征,我们采用两个维度来加强有意义的信息,为了更好的应用两个维度,可以实现位置和内容的加强和抑制

在ImageNet-1K数据集,从不同的基准方法提高精度,显示了CMAM的效率,使用the grad-CAM [18]可视化训练,观察CBAM模块更加关注目标物体相较于基准方法,考虑到这一点 我们认为性能的提升来源于噪声的减少和精确的注意力,最后在voc2007数据集 ,展示了CMAM的通用性,因为模型为轻量化的,参数和计算的增加基本可以忽略。

贡献:

第一 提出高效的CBAM网络,提升CNN的性能

第二 通过消融实验 验证其有效性

第三 在多个网络上,能够有效的提升 通过插入轻量级的模块

2 相关工作

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值