引入注意力机制

在这里插入图片描述
上节介绍了如何修改网络结构,本节开始引入注意力机制
首先就还是按照上节的流程,借鉴一个代码,借鉴网站https://github.com/ZhugeKongan/Attention-mechanism-implementation,源码下载完成后,按照以下流程进行操作。

  • models/commons.py —加入新增的网络结构
  • models/yolov5*.yaml––修改现有模型的配置文件
    -当引入新的层时,要修改后续的结构中的from参数
  • models/yolo.py––设定网络结构的传参
    -当新的定义模块中存在输入输出维度时,要用gw调整输出维度
  • train.py––训练时指定模型的配置文件
1. STEP1 加入新增的网络结构

打开下载好的借鉴代码,找到SE_block.py文件打开

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
导入发现,F报错,这是因为借鉴的SE代码当中自定义了F,我们需要把定义的那部分也加进来
在这里插入图片描述
将此行添加到common.py中的import部分。

2. STEP2 加入新增的网络结构

首先,复制一份yolov5s.yaml文件重命名为SE-yolov5s.yaml
在这里插入图片描述
同时注意head这一部分,在这里插入图片描述
画框部分只要是大于9的数字均要加1,因为将SE加在了第十层,这就导致十层以后的的层数要加1,图中原本为[1,14],改完之后变为[1,15],更改完代码如下,可以观察一下

head:
  [[-1, 1, Conv, [512, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 6], 1, Concat, [1]],  # cat backbone P4
   [-1, 3, C3, [512, False]],  # 13

   [-1, 1, Conv, [256, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 4], 1, Concat, [1]],  # cat backbone P3
   [-1, 3, C3, [256, False]],  # 17 (P3/8-small)

   [-1, 1, Conv, [256, 3, 2]],
   [[-1, 15], 1, Concat, [1]],  # cat head P4
   [-1, 3, C3, [512, False]],  # 20 (P4/16-medium)

   [-1, 1, Conv, [512, 3, 2]],
   [[-1, 11], 1, Concat, [1]],  # cat head P5
   [-1, 3, C3, [1024, False]],  # 23 (P5/32-large)

   [[18, 21, 22], 1, Detect, [nc, anchors]],  # Detect(P3, P4, P5)
  ]
3. STEP3 设定网络结构的传参

打开yolo.py文件
在这里插入图片描述
将上述代码添加到yolo.py文件中

4. STEP4 训练时指定模型的配置文件

更改—cfg参数在这里插入图片描述
最后点击运行,参看效果即可

OK 也不知道到我写清楚了没有
在这里插入图片描述

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值