YOLOv10改进 | 独家创新- 注意力篇 | YOLOv10引入结合SimAM和Channel Attention形成全新的CSimAM注意力机制和C2f_CSimAM(全网独家创新)

1. CSimAM介绍

          CSimAM(Channel SimAM)注意力机制结合了SimAM和通道注意力机制(Channel Attention),在图像特征提取上展现出比单独使用SimAM更为优异的性能。以下是详细描述:

         SimAM注意力机制
         SimAM(Similarity Attention Mechanism)通过计算特征图中每个像素点与其均值的差异来生成注意力权重。具体来说,SimAM的工作原理如下:
          (1). 均值计算:对于输入特征图`x`,计算其在空间维度上的均值。
          (2). 差异计算:计算每个像素点与均值的平方差。
          (3). 归一化处理:将平方差除以归一化因子,归一化因子由平方差的和与一个常量(e_lambda)共同决定。
          (4). 注意力权重生成:通过Sigmoid激活函数将归一化结果转换为[0,1]之间的注意力权重。
          (5). 加权特征图:将输入特征图与注意力权重相乘,得到加权后的特征图。

          Channel Attention机制
          通道注意力机制主要关注特征图的通道维度。其工作原理如下:
          (1

  • 18
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值