卷积神经网络里的attention机制

本文介绍了卷积神经网络中的注意力机制,包括SEnet和CBAM。SEnet通过全局平均池化和全连接层获取通道权重,提升模型0.5%的效果。CBAM则结合通道注意力和空间注意力,通过MaxPooling和AvgPooling增强信息交流,使用7x7卷积融合空间注意力。
摘要由CSDN通过智能技术生成

参考:
https://arxiv.org/abs/1807.06521
https://arxiv.org/abs/1709.01507
https://zhuanlan.zhihu.com/p/65529934
https://zhuanlan.zhihu.com/p/32702350
https://github.com/luuuyi/CBAM.PyTorch
https://github.com/moskomule/senet.pytorch

1.CBAM: Convolutional Block Attention Module
2.Squeeze-and-Excitation Networks

先来谈SEnet吧,站在2020年看SEnet感觉就是个很容易实现的模块了
利用pytorch提供的nn.AdaptiveAvgPool2d和全连接层完成

原理的话,自己理解,在SEnet网络之前,通道间的信息交流只有通过1*1的卷积,但是1*1的卷积,感受野只有1啊,不能获取全局的信息,无法将通道间的信息权重进行筛选,这个时候作者就想到了一招,对整个特征图做一次全局的采样,获取整张特征图最大值作为该通道的代表,于是我们便得到一个1*1*C通道的特征tensor,再将整个tensor经过两个linear层,最后再过一个sigmoid层,这样就可以得到通道权重系数了

from torch import nn


class SELayer(nn.Module):
    def __init__(self, channel, reduction=16):
        super(SELayer, self).__init__()
        self.avg_pool = nn.AdaptiveAvgPool2d(1)
        self.fc = nn.Sequential(
            nn.Linear(channel, channel // reduction, bias=False),
            nn.ReLU(inplace=True),
            nn.Linear(channel // red
一维卷积神经网络的注意力机制是指网络在处理输入数据时,能够自动调整和集中注意力于重要的信息。注意力机制在一维卷积神经网络中起到了自适应注意的重要作用。 在视觉注意力机制中,一维卷积神经网络通过快速扫描全局数据,找出需要重点关注的目标区域,即注意力焦点。然后,网络会投入更多的注意力资源去获取这一区域的细节信息,同时抑制其他无用信息。 在卷积神经网络中,注意力机制可以表现为通道注意力和空间注意力两种形式。通道注意力指的是网络能够自适应地选择性地关注输入数据的不同通道或特征维度,以提取更重要的特征信息。而空间注意力则是指网络能够自适应地选择性地关注输入数据的不同空间位置,以提取更重要的空间信息。 一维卷积神经网络的注意力机制可以帮助网络更好地理解和利用输入数据的关键特征,从而提高网络的性能和表现能力。通过注意力机制,网络可以自动学习和适应输入数据中的重要信息,使得网络更加聚焦于关键信息的提取和利用,从而提高网络的准确性和鲁棒性。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [注意力机制Attention Mechanism)-SENet](https://blog.csdn.net/Aaaa_ZZZ/article/details/126734073)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [卷积神经网络中的注意力机制](https://blog.csdn.net/qq_32863339/article/details/94905036)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值