深度学习
SiuSiuSiU~
这个作者很懒,什么都没留下…
展开
-
深度学习梯度下降简易演示
参考:https://www.bilibili.com/video/BV15i4y147pf/?原创 2024-01-09 12:54:03 · 368 阅读 · 0 评论 -
CA注意力模块
弥补了SE模块缺少位置信息的缺点,通过对w,h方向进行全局平均池化,使得特征层能够获取到位置信息。原创 2024-01-03 17:25:03 · 407 阅读 · 1 评论 -
CBAM 注意力机制模块(通道+空间)
#(1)通道注意力机制 (相比较SE 多了全局最大池化)class channel_attention(nn.Module): # 初始化, in_channel代表输入特征图的通道数, ratio代表第一个全连接的通道下降倍数 def __init__(self, in_channel, ratio=4): # 继承父类初始化方法 super(channel_attention, self).__init__() # 全原创 2024-01-03 15:25:49 · 628 阅读 · 1 评论 -
幻影卷积Ghost conv
1.将原来的特征层经过1x1卷积进行通道融合变为特征层(2)2.将(2)进行深度卷积变为(3)3.将(2)(3)特征层进行拼接。原创 2024-01-03 13:07:09 · 870 阅读 · 1 评论