机器视觉教学:YOLOAir库使用(六)

YOLOAir :面向小白的目标检测库,更快更方便更完整的YOLO库

在这里插入图片描述

模型多样化 :基于不同网络模块构建不同检测网络模型。

模块组件化
:帮助用户自定义快速组合Backbone、Neck、Head,使得网络模型多样化,助力科研改进检测算法、模型改进,网络排列组合,构建强大的网络模型。

统一模型代码框架、统一应用方式、统一调参、统一改进、易于模块组合、构建更强大的网络模型
:内置YOLOv5、YOLOv7、YOLOX、YOLOR、Transformer、Scaled_YOLOv4、YOLOv3、YOLOv4、YOLO-
Facev2、TPH-YOLO、YOLOv5Lite、SPD-YOLO、SlimNeck-YOLO、PicoDet等模型网络结构

基于 YOLOv5 代码框架,并同步适配稳定的YOLOv5_v6.1更新, 同步v6.1部署生态。使用这个项目之前, 您可以先了解YOLOv5库。

YOLOv5仓库 :https://github.com/ultralytics/yolov5

YOLOAir项目地址 🌟: https://github.com/iscyy/yoloair

YOLOAir部分改进说明教程 🌟: https://github.com/iscyy/yoloair/wiki/Improved-
tutorial-presentation

YOLOAir CSDN地址 :https://blog.csdn.net/qq_38668236

YOLOAir库使用说明

1. 下载源码


​ $ git clone https://github.com/iscyy/yoloair.git

或者打开github链接,下载项目源码,点击Code选择Download ZIP

在这里插入图片描述

2. 配置环境

首先电脑安装Anaconda,本文YOLOAir环境安装在conda虚拟环境里

2.1 创建一个python3.8的conda环境yoloair


​ conda create -n yoloair python=3.8

2.2 安装Pytorch和Torchvision环境

安装Pytorch有种方式,一种是官网链接[安装]https://pytorch.org/(),另外一中是下载whl包到本地再安装

Pytorch whl包下载地址:https://download.pytorch.org/whl/torch/

TorchVision包下载地址:https://download.pytorch.org/whl/torchvision/

本文Pytorch安装的版本为1.8.0,torchvision对应的版本为0.9.0

在这里插入图片描述

在这里插入图片描述

注意:cp对应Python包版本,linux对应lLinux版本,win对应Windows版本

当whl文件下载到本地后,进入包下载命令,使用pip install 包名来安装:


​ pip install torch-1.8.0+cu111-cp38-cp38-win_amd64.whl
​ pip install torchvision-0.9.0+cu111-cp38-cp38-win_amd64.whl

2.3 安装其他包依赖

YOLOAir项目依赖包具体包含如下:其中Base模块是基本项目依赖包,Logging和Plotting是模型训练时用到的日志和画图包,Export是用于模型转换时用到的(如pt转ONNX、TRT等),thop包是用来计算参数量的

在这里插入图片描述

进入到下载的YOLOAir项目目录,使用以下命令安装项目包依赖


​ pip install -r requirements.txt # 安装依赖包

如果嫌安装速度太慢,可以在此网站(https://pypi.org/)找包下载到本地再安装

2.4 开箱训练

train.py里面可以设置各种参数,具体参数解释详见后续实战更新


​ python train.py --data coco128.yaml --cfg configs/yolov5/yolov5s.yaml

2.5 模型推理

detect.py在各种数据源上运行推理, 并将检测结果保存到runs/detect目录


​ python detect.py --source 0 # 网络摄像头
​ img.jpg # 图像
​ vid.mp4 # 视频
​ path/ # 文件夹
​ path/*.jpg # glob

2.6 集成融合

如果使用不同模型来推理数据集,则可以使用 wbf.py文件通过加权框融合来集成结果,只需要在wbf.py文件中设置img路径和txt路径


​ $ python wbf.py

开箱使用YOLOAir

1. 模块选择

本文选取选择性卷积核网络SKAttention(SKAttention:Selective Kernel Networks),整体结构如下图所示:

在这里插入图片描述

  • CVPR2019的一篇文章,中间层沿用了SENet的思想

  • 在传统的CNN中每一个卷积层都是用相同大小的卷积核,限制了模型的表达能力,像Inception这种宽度模型结构也验证了使用多个不同的卷积核进行学习确实可以提升模型的表达能力

  • SKAttention借鉴了SENet的思想,通过动态计算每个卷积核得到通道的权重,动态的将各个卷积核的结果进行融合

  • 同时本文提出的模型也是lightweight,因为对不同卷积核提取的特征进行通道注意力的时候是参数共享的(也就是在做注意力之前,首先将特征进行了融合,因此不同卷积核的结果共享一个SE模块的参数)

  • 模型分为三个部分:Split、Fuse和Select

  • Split就是一个multi-branch的操作,用不同的卷积核进行卷积得到不同的特征;Fuse部分就是用SENet的结构获取通道注意力的矩阵(N个卷积核就可以得到N个注意力矩阵,这步操作对所有的特征参数共享),这样就可以得到不同kernel经过SENet之后的特征;Select操作就是将得到的这几个特征进行相加

    import numpy as np
    import torch
    from torch import nn
    from torch.nn import init
    from collections import OrderedDict

    参考论文:https://arxiv.org/pdf/1903.06586.pdf

    class SKAttention(nn.Module):

    def __init__(self, channel=512, out_channel=1024, kernels=[1,3,5,7], reduction=16, group=1, L=32):
        super().__init__()
        self.d=max(L,channel//reduction)
        self.convs=nn.ModuleList([])
        for k in kernels:
            self.convs.append(
                nn.Sequential(OrderedDict([
                    ('conv',nn.Conv2d(channel,channel,kernel_size=k,padding=k//2,groups=group)),
                    ('bn',nn.BatchNorm2d(channel)),
                    ('relu',nn.ReLU())
                ]))
            )
        self.fc=nn.Linear(channel,self.d)
        self.fcs=nn.ModuleList([])
        for i in range(len(kernels)):
            self.fcs.append(nn.Linear(self.d,channel))
        self.softmax=nn.Softmax(dim=0)
    
    def forward(self, x):
        bs, c, _, _ = x.size()
        conv_outs=[]
        ### split
        for conv in self.convs:
            conv_outs.append(conv(x))
        feats=torch.stack(conv_outs, 0)#k,bs,channel,h,w
    
        ### fuse
        U=sum(conv_outs) #bs,c,h,w
    
        ### reduction channel
        S=U.mean(-1).mean(-1) #bs,c
        Z=self.fc(S) #bs,d
    
        ### calculate attention weight
        weights=[]
        for fc in self.fcs:
            weight=fc(Z)
            weights.append(weight.view(bs, c, 1, 1)) #bs,channel
        attention_weughts=torch.stack(weights, 0)#k,bs,channel,1,1
        attention_weughts=self.softmax(attention_weughts)#k,bs,channel,1,1
    
        ### fuse
        V=(attention_weughts*feats).sum(0)
        return V
    

    if name == ‘main’:
    input=torch.randn(50, 512, 7, 7)
    se = SKAttention(channel=512, reduction=8)
    output=se(input)
    print(output.shape)

2.模型配置


​ # parameters
​ nc: 3 # number of classes
​ depth_multiple: 0.33 # model depth multiple
​ width_multiple: 0.50 # layer channel multiple

# anchors
anchors:
#- [5,6, 7,9, 12,10] # P2/4
# - [10,13, 16,30, 33,23] # P3/8
# - [30,61, 62,45, 59,119] # P4/16
# - [116,90, 156,198, 373,326] # P5/32
- [11,10, 17,16, 25,24] # P3/8
- [38,37, 46,72, 88,67] # P4/16
- [75,129, 180,145, 283,348] # P5/32

# YOLOv5 backbone
backbone:
  # [from, number, module, args]
  [ [-1, 1, Conv, [64, 6, 2, 2]],  # 0-P1/2
    [-1, 1, Conv, [128, 3, 2]],  # 1-P2/4
    [-1, 3, C3, [128]],
    [-1, 1, Conv, [256, 3, 2]],  # 3-P3/8
    [-1, 6, C3, [256]],
    [-1, 1, Conv, [512, 3, 2]],  # 5-P4/16
    [-1, 9, C3, [512]],
    [-1, 1, Conv, [1024, 3, 2]],  # 7-P5/32
    [-1, 3, C3, [1024]],
    [-1, 1, SPPF, [1024, 5]],  # 9
  ]

# YOLOv5 v6.0 head
head:
  [[-1, 1, Conv, [512, 1, 1]], 
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 6], 1, Concat, [1]],  # cat backbone P4
   [-1, 3, C3, [512, False]],  

   [-1, 1, Conv, [256, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 4], 1, Concat, [1]],  # cat backbone P3
   [-1, 3, C3, [256, False]],  # 20 (P3/8-small)

   [-1, 1, Conv, [256, 3, 2]], 
   [[-1, 14], 1, Concat, [1]],  # cat head P4
   [-1, 3, C3, [512, False]],  # 23 (P4/16-medium)       [256, 256, 1, False]  
   # [-1, 3, CBAM, [512]],   #26

   [-1, 1, Conv, [512, 3, 2]],  # 24                      [256, 256, 3, 2] 
   [[-1, 10], 1, Concat, [1]],  # cat head P5
   [-1, 3, C3, [1024, False]],  # 26 (P5/32-large)       [512, 512, 1, False]
   [-1, 1, SKAttention, [1024]],

   [[17, 20, 24], 1, Detect, [nc, anchors]],  # Detect(P3, P4, P5)
  ]

  • nc:检测的类别数
  • depth_multiple:控制每层代码块的个数
  • width_multiple:控制每层特征图的深度
  • 参数量:YOLOv5s_SKAttention summary: 295 layers, 29137960 parameters, 29137960 gradients, 33.7 GFLOPs

3.模块配置

在yolo.py中加载模块,配置相关参数(先在Common.py中导入该模块)


​ elif m in [SKAttention]:
​ c1, c2 = ch[f], args[0]
​ if c2 != no: # if not output
​ c2 = make_divisible(c2 * gw, 8)
​ args = [c1, *args[1:]]

4.开箱训练

笔者对一个三类别目标检测任务进行训练,得到最终的结果图如下:

在这里插入图片描述

SKAttention训练结果图

在这里插入图片描述

SENet训练结果图

训练超参数:hyp.yaml


​ loss_category: CIoU
​ mode: yolo
​ use_aux: false
​ weights: weights/yolov5s.pt
​ cfg: configs/yolov5/attention/yolov5s_SKAttention.yaml
​ data: data/fire_smoke.yaml
​ hyp: data/hyps/hyp.VOC.yaml
​ epochs: 300
​ batch_size: 64
​ imgsz: 640
​ rect: false
​ resume: false
​ nosave: false
​ noval: false
​ noautoanchor: false
​ noplots: false
​ evolve: null
​ bucket: ‘’
​ cache: null
​ image_weights: false
​ device: ‘’
​ multi_scale: false
​ single_cls: false
​ optimizer: SGD
​ sync_bn: false
​ workers: 8
​ project: runs/train
​ name: exp
​ exist_ok: false
​ quad: false
​ cos_lr: false
​ label_smoothing: 0.0
​ patience: 100
​ freeze:
​ - 0
​ save_period: -1
​ local_rank: -1
​ entity: null
​ upload_dataset: false
​ bbox_interval: -1
​ artifact_alias: latest
​ swin_float: false
​ save_dir: runs/train/exp3

  • 所有实验默认初始化参数为yolov5s,模型为yolov5s权重加载
  • base_size=64,hyp=hyp.VOC.yaml,epoch=300,IOU=CIOU,Imgsz=640
  • 相比于普通的YOLOv5模型,添加了SKAttention模块的模型在训练稳定性上更胜一筹,训练和验证loss下降比较快且平稳,整体效果有明显提升;
  • 模型在召回率上由明显波动,这方面弱于SEAttention。且模型的运算量达到 33.7 GFLOPs,也是相对比较大的
  • 模块添加建议:在模型预测层前添加一个SKAttention模块(尽量放在Neck中)

总结

开箱即用YOLOAir库,使用或自定义模块遵循以下几个部分:

  • 模块选择
  • 模型配置
  • 模块配置
  • 开箱训练

项目分享:

https://gitee.com/sinonfin/algorithm-sharing

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值