ultralytics修改记录------添加注意力机制

Yolov8添加无参数注意力

实验添加SimAM注意力机制

源码地址: https://github.com/ZjjConan/SimAM

修改位置:

1.yolov8中新建simam_module.py文件,保存源码

复制mmdetection/mmdet/models/backbones/attentions/simam_module.py

在tasks.py文件下导入代码模块

2.修改yaml文件,加入simam_module模块。

(上述yaml将simam_module添加到了第10层)后续大于10层的都加1.

3.测试yaml文件是否可行。在目录.\ultralytics-main下创建文件test-model.py,在变量CFG中指定刚刚yaml文件的绝对路径或相对路径,执行python文件,若为pass,则表明添加成功;

test-model.py

  • Yolov8添加1参数(一个通道数)注意力

  • 实验添加一个通道数注意力机制EMA

    源码地址:https://github.com/yoloonme/ema-attention-module

    修改位置:

    1.yolov8中新建EMA_attention_module.py文件,保存源码

    2.在tasks.py文件中导入EMA模块,并添加两行代码:

     elif m in {EMA}:
          args = [ch[f]]

  • 3.修改yaml文件,加入simam_module模块,后续层数加1.

  • 测试同前

  • Yolov8添加2参数(二个通道数)注意力

  • 实验添加二个通道数注意力机制GAM

    源码地址:即插即用 | 超越CBAM,全新注意力机制,GAM不计成本提高精度(附Pytorch实现)

    修改位置:

  • 1.yolov8中新建GAM_Attention_module.py文件,保存源码
  • 2.在tasks.py文件中导入GAM模块,并对添加部分代码。
  • elif m in {GAM_Attention}:
           args = [ch[f], *args]

  • 3.修改yaml文件,加入GAM_Attention模块,后续层数相应修改。
  • 使用test_model.py查看原始yolov8的yaml文件的具体通道数就可以得出32、64和128。

  • 修改层数。

  • 测试:

  • 7
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值