(2018ECCV)CBAM:卷积块注意模块

摘要

给定一个中间特征图,我们的模块将沿着通道空间两个独立的维度依次推断出注意力图,然后将注意力图乘以输入特征图进行自适应特征细化

引言

为了提高CNN的性能,最近的研究主要研究了网络的三个重要因素:深度宽度基数(cardinality)
出了上述三种因素,我们探究了网络架构设计的另一方面:注意力机制专注于重要的特性并抑制不必要的特性
在这里插入图片描述

相关工作

网络工程。加深网络渐近饱和,由于梯度传播较为困难。
ResNet采用跳层连接来解决此问题。
基于ResNet,
WideResNet提出了一种具有较多卷积滤波器和较低深度的残差网络;
PyramidNet是对WideResNet的严格推广,其中网络的宽度逐渐增加;
ResNeXt[7]建议使用分组卷积,并表明增加基数会导致更好的分类精度;
DenseNet迭代地将输入特征与输出特征连接起来,使每个卷积块能够接收到来自所有前面块的原始信息。
现有工作主要集中在深度、宽度、二者兼有之上,而我们的工作则聚焦于注意力机制。

注意力机制。模仿人类的一种机制,Residual Attention Network使用了编码器-解码器风格的注意模块。通过优化特征图,该网络不仅性能良好,而且对噪声输入具有鲁棒性。
我们把注意力机制分解为空间维度和通道维度,并且做到了即插即用模块化。
Squeeze-and-Excitation使用全局平均池化特性来计算通道上的注意力。然而,我们证明这些是次优特征当用于推断精细的通道注意,我们建议使用最大池化特征。并且他们丢失了空间注意力。
BAM将三维注意图推理分解为通道和空间。他们在网络的每个bottleneck处放置BAM模块,而我们在每个卷积块处插入。

CBAM

输入:中间特征图

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值