YOLOv11改进 | 独家创新- 注意力篇 | YOLOv11引入GAM和LinearAttention结合之LGAM注意力(全网独家创新)

1. LGAM介绍

          LGAM(Linear Global Attention Module)和GAM(Global Attention Module)是两种用于图像特征提取的注意力机制。它们在设计上有一些显著的差异,这使得LGAM在某些方面比GAM更具优势。

         LGAM的设计与改进:

        (1). 线性注意力机制的引入
        LGAM在其设计中引入了线性注意力机制。具体来说,它使用了LinearAttention类来计算通道间的注意力。线性注意力机制相比传统的全局注意力机制有两个主要优势:

         计算效率更高:线性注意力通过降低计算复杂度,使得注意力计算更加高效,尤其是在处理高分辨率图像时,这一点尤为重要。
减少内存占用:线性注意力在计算过程中减少了中间结果的存储需求,从而节省了显存,适合在资源受限的环境中使用。

         (2). 更细粒度的通道间交互
         在LGAM中,通过`self.linear1`和`self.linear2`实现的两层全连接网络,对输入特征进行了降维和恢复,这种设计使得通道间的交互更加细粒度。具体步骤如下:

         首先,输入特征经过第一层线性变换`self.linear1`,降低了特征维度

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值