【深度学习】时间注意力模块与空间注意力模块

本文介绍了深度学习中用于提升模型性能的注意力模块,包括通道(时间)注意力模块和空间注意力模块。通道注意力通过全局平均池化和最大池化结合神经网络计算权重,对特征进行缩放。空间注意力模块则关注特征图中哪些区域重要,通过通道拼接、卷积和Sigmoid激活得到权重,同样用于特征缩放。
摘要由CSDN通过智能技术生成

通道(时间)注意力模块

为了汇总空间特征,作者采用了全局平均池化最大池化两种方式来分别利用不同的信息。

在这里插入图片描述
输入是一个 H×W×C 的特征 F,

  1. 我们先分别进行一个空间的全局平均池化和最大池化得到两个 1×1×C 的通道描述。
  2. 接着,再将它们分别送入一个两层的神经网络,第一层神经元个数为 C/r,激活函数为 Relu,第二层神经元个数为 C。这个两层的神经网络是共享的。
  3. 然后,再将得到的两个特征相加后经过一个 Sigmoid 激活函数得到权重系数 Mc。
  4. 最后,拿权重系数和原来的特征 F 相乘即可得到缩放后的新特征。
    在这里插入图片描述
    实现代码如下:
class ChannelAttention(nn.Module):
    def __init__(self, in_planes, rotio=16):
        super(ChannelAttention, self).__init__()
        #两个 1×1×C 的通道描述
        self.avg_pool = nn.AdaptiveAvgPo
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值