CBAM、通道注意力、空间注意力学习

  1. 各模块简介:

        CBAM 是一个轻量级的通用模块,其中包含了空间注意力和通道注意力。

        通道注意力是先对空间进行全局平均或最大池化后,在通道层面求得注意力。

空间注意力是先对通道进行全局平均或最大池化后,在空间层面求得注意力。

2.CBAM:

 3.代码

空间注意力pytorch代码:

class SpatialAttention(nn.Module):
    def __init__(self, kernel_size=7):
        super(SpatialAttention, self).__init__()

        assert kernel_size in (3, 7), 'kernel size must be 3 or 7'
        padding = 3 if kernel_size == 7 else 1

        self.conv1 = nn.Conv2d(2, 1, kernel_size, padding=padding, bias=False)
        self.sigmoid = nn.Sigmoid()

    def forward(self, x):  # x.size() 30,40,50,30
        avg_out = torch.mean(x, dim=1, keepdim=True)
        max_out, _ = torch.max(x, dim=1, keepdim=True)  # 30,1,50,30
        x = torch.cat([avg_out, max_out], dim=1)
        x = self.conv1(x)  # 30,1,50,30
        return self.sigmoid(x)  # 30,1,50,30

参考:

 注意力机制学习(二)——空间注意力与pytorch案例_呆萌的代Ma的博客-CSDN博客_pytorch 空间注意力文章目录一、空间注意力机制简介二、空间注意力与pytorch代码三、使用案例一、空间注意力机制简介空间注意力的示意图如下:长条的是通道注意力机制,而平面则是空间注意力机制,可以发现:通道注意力在意的是每个特怔面的权重,而空间注意力在意的是面上每一个局部的权重。二、空间注意力与pytorch代码class SpatialAttention(nn.Module): def __init__(self, kernel_size=7): super(SpatialAttentiohttps://blog.csdn.net/weixin_35757704/article/details/119926246

注意力机制BAM和CBAM详细解析(附代码)_小小谢先生的博客-CSDN博客_空间注意力机制代码论文题目①:BAM: Bottleneck Attention Module论文题目②:CBAM:CBAM: Convolutional Block Attention ModuleBottlenet attention Module(BAM)依据人看东西时不可能把注意力放在所有的图像上,会把焦点目光聚集在图像的重要物体上。因此,作者提出了BAM注意力机制,仿照人的眼睛聚焦在图像几个重...https://blog.csdn.net/xiewenrui1996/article/details/105760359?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-2.control&dist_request_id=&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-2.control 通道注意力,空间注意力,像素注意力 - 知乎

  • 1
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
CBAM通道注意力机制是一种用于对通道特征进行加权的注意力机制,可以帮助深度神经网络更好地理解和利用不同通道的特征信息。该注意力机制主要由两个模块组成:通道注意力模块(Channel Attention Module)和空间注意力模块(Spatial Attention Module)。 在CBAM通道注意力机制中,通道注意力模块主要用于对每个通道的特征图进行加权。它通过引入两个全连接层来学习每个通道的重要性权重,并利用这些权重来对通道特征进行加权求和。这样,网络可以有针对性地选择有意义的通道特征,并抑制无关的通道特征,从而提升网络性能。 而在CBAM通道注意力机制中,压缩比是指通过注意力机制选择性地减少或增加通道数目的比例。通过学习通道注意力权重,可以对每个通道进行加权求和,进而得到每个通道的重要性。在训练过程中,网络可以根据通道注意力权重的大小来决定哪些通道对于当前任务是有用的,哪些通道是冗余的。通过减少冗余通道,可以减小特征图的维度,达到压缩比的目的。 总而言之,CBAM通道注意力机制是一种用于加权通道特征的机制,通过选择性地加权求和每个通道的特征图,可以帮助网络选择有意义的特征并抑制冗余特征。通过学习通道注意力权重,还可以根据任务需求来压缩特征图的维度,从而提高网络的效率和性能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值