注意力机制
SiuSiuSiU~
这个作者很懒,什么都没留下…
展开
-
CA注意力模块
弥补了SE模块缺少位置信息的缺点,通过对w,h方向进行全局平均池化,使得特征层能够获取到位置信息。原创 2024-01-03 17:25:03 · 407 阅读 · 1 评论 -
CBAM 注意力机制模块(通道+空间)
#(1)通道注意力机制 (相比较SE 多了全局最大池化) class channel_attention(nn.Module): # 初始化, in_channel代表输入特征图的通道数, ratio代表第一个全连接的通道下降倍数 def __init__(self, in_channel, ratio=4): # 继承父类初始化方法 super(channel_attention, self).__init__() # 全原创 2024-01-03 15:25:49 · 628 阅读 · 1 评论