机器视觉教学:YOLOAir库使用(三)

YOLOAir :面向小白的目标检测库,更快更方便更完整的YOLO库图片
模型多样化 :基于不同网络模块构建不同检测网络模型。

模块组件化
:帮助用户自定义快速组合Backbone、Neck、Head,使得网络模型多样化,助力科研改进检测算法、模型改进,网络排列组合,构建强大的网络模型。

统一模型代码框架、统一应用方式、统一调参、统一改进、易于模块组合、构建更强大的网络模型
:内置YOLOv5、YOLOv7、YOLOX、YOLOR、Transformer、Scaled_YOLOv4、YOLOv3、YOLOv4、YOLO-
Facev2、TPH-YOLO、YOLOv5Lite、SPD-YOLO、SlimNeck-YOLO、PicoDet等模型网络结构

YOLOAir项目地址 🌟: https://github.com/iscyy/yoloair

YOLOAir CSDN地址 :https://blog.csdn.net/qq_38668236

YOLOAir库使用说明

1. 下载源码


​ $ git clone https://github.com/iscyy/yoloair.git

或者打开github链接,下载项目源码,点击Code选择Download ZIP
在这里插入图片描述

2. 配置环境

首先电脑安装Anaconda,本文YOLOAir环境安装在conda虚拟环境里

2.1 创建一个python3.8的conda环境yoloair


​ conda create -n yoloair python=3.8

2.2 安装Pytorch和Torchvision环境

安装Pytorch有种方式,一种是官网链接[安装]https://pytorch.org/(),另外一中是下载whl包到本地再安装

Pytorch whl包下载地址:https://download.pytorch.org/whl/torch/

TorchVision包下载地址:https://download.pytorch.org/whl/torchvision/

本文Pytorch安装的版本为1.8.0,torchvision对应的版本为0.9.0

在这里插入图片描述
在这里插入图片描述

注意:cp对应Python包版本,linux对应lLinux版本,win对应Windows版本

当whl文件下载到本地后,进入包下载命令,使用pip install 包名来安装:


​ pip install torch-1.8.0+cu111-cp38-cp38-win_amd64.whl
​ pip install torchvision-0.9.0+cu111-cp38-cp38-win_amd64.whl

2.3 安装其他包依赖

YOLOAir项目依赖包具体包含如下:其中Base模块是基本项目依赖包,Logging和Plotting是模型训练时用到的日志和画图包,Export是用于模型转换时用到的(如pt转ONNX、TRT等),thop包是用来计算参数量的
在这里插入图片描述

进入到下载的YOLOAir项目目录,使用以下命令安装项目包依赖


​ pip install -r requirements.txt # 安装依赖包

如果嫌安装速度太慢,可以在Pypi网站(https://pypi.org/)找包下载到本地再安装

2.4 开箱训练

train.py里面可以设置各种参数,具体参数解释详见后续实战更新


​ python train.py --data coco128.yaml --cfg configs/yolov5/yolov5s.yaml

2.5 模型推理

detect.py在各种数据源上运行推理, 并将检测结果保存到runs/detect目录


​ python detect.py --source 0 # 网络摄像头
​ img.jpg # 图像
​ vid.mp4 # 视频
​ path/ # 文件夹
​ path/*.jpg # glob

2.6 集成融合

如果使用不同模型来推理数据集,则可以使用 wbf.py文件通过加权框融合来集成结果,只需要在wbf.py文件中设置img路径和txt路径


​ $ python wbf.py

开箱使用YOLOAir

1. 模块选择

本文选取经典通道+空间注意力模块CBAM: Convolutional Block Attention Module,整体结构如下图所示:

在这里插入图片描述
在这里插入图片描述

  • 通道注意力模块(CAM):通道维度不变,压缩空间维度,该模块加权输入特征图的维度信息

  • 空间注意力模块(SAM):空间维度不变,压缩通道维度,该模块关注于目标的位置信息

    import torch
    import torch.nn as nn
    import torch.nn.functional as F

    class ChannelAttentionModule(nn.Module):
    def init(self, c1, reduction=16):
    super(ChannelAttentionModule, self).init()
    mid_channel = c1 // reduction
    self.avg_pool = nn.AdaptiveAvgPool2d(1)
    self.max_pool = nn.AdaptiveMaxPool2d(1)

        self.shared_MLP = nn.Sequential(
            nn.Linear(in_features=c1, out_features=mid_channel),
            nn.LeakyReLU(0.1, inplace=True),
            nn.Linear(in_features=mid_channel, out_features=c1)
        )
        self.act = nn.Sigmoid()
        # self.act=nn.SiLU()
    
    def forward(self, x):
        avgout = self.shared_MLP(self.avg_pool(x).view(x.size(0), -1)).unsqueeze(2).unsqueeze(3)
        maxout = self.shared_MLP(self.max_pool(x).view(x.size(0), -1)).unsqueeze(2).unsqueeze(3)
        return self.act(avgout + maxout)
    

    class SpatialAttentionModule(nn.Module):
    def init(self):
    super(SpatialAttentionModule, self).init()
    self.conv2d = nn.Conv2d(in_channels=2, out_channels=1, kernel_size=7, stride=1, padding=3)
    self.act = nn.Sigmoid()

    def forward(self, x):
        avgout = torch.mean(x, dim=1, keepdim=True)
        maxout, _ = torch.max(x, dim=1, keepdim=True)
        out = torch.cat([avgout, maxout], dim=1)
        out = self.act(self.conv2d(out))
        return out
    

    class CBAM(nn.Module):
    def init(self, c1, c2):
    super(CBAM, self).init()
    self.channel_attention = ChannelAttentionModule(c1)
    self.spatial_attention = SpatialAttentionModule()

    def forward(self, x):
        out = self.channel_attention(x) * x
        out = self.spatial_attention(out) * out
        return out
    

参考论文 :https://arxiv.org/pdf/1807.06521.pdf

2.模型配置


​ # YOLOv5 🚀 by YOLOAir, GPL-3.0 license

# Parameters
nc: 3 # number of classes
depth_multiple: 0.33 # model depth multiple
width_multiple: 0.50 # layer channel multiple

# anchors
anchors:
  #- [5,6, 7,9, 12,10]      # P2/4
  - [10,13, 16,30, 33,23]  # P3/8
  - [30,61, 62,45, 59,119]  # P4/16
  - [116,90, 156,198, 373,326]  # P5/32

# YOLOv5 backbone
backbone:
  # [from, number, module, args]               
  [[-1, 1, Conv, [64, 6, 2, 2]],  # 0-P1/2           [c=3,64*0.5=32,3]
   [-1, 1, Conv, [128, 3, 2]],  # 1-P2/4    
   [-1, 3, C3, [128]],                                
   [-1, 1, Conv, [256, 3, 2]],  # 3-P3/8            
   [-1, 6, C3, [256]],                         
   [-1, 1, Conv, [512, 3, 2]],  # 5-P4/16       
   [-1, 9, C3, [512]],                     
   [-1, 1, Conv, [1024, 3, 2]],  # 7-P5/32
   [-1, 3, C3, [1024]], 
   [-1, 1, CBAM, [1024]], #9
   [-1, 1, SPPF, [1024,5]], #10
  ]

# YOLOv5 head
head:
  [[-1, 1, Conv, [512, 1, 1]], 
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 6], 1, Concat, [1]],  # cat backbone P4
   [-1, 3, C3, [512, False]],  # 14

   [-1, 1, Conv, [256, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 4], 1, Concat, [1]],  # cat backbone P3
   [-1, 3, C3, [256, False]],  # 18 (P3/8-small)
   [-1, 1, CBAM, [256]],   #19
   
   [-1, 1, Conv, [256, 3, 2]],
   [[-1, 15], 1, Concat, [1]],  # cat head P4
   [-1, 3, C3, [512, False]],  # 22 (P4/16-medium)       [256, 256, 1, False]  
   [-1, 1, CBAM, [512]],

   [-1, 1, Conv, [512, 3, 2]],                           #[256, 256, 3, 2] 
   [[-1, 11], 1, Concat, [1]],  # cat head P5
   [-1, 3, C3, [1024, False]],  # 25 (P5/32-large)       [512, 512, 1, False]
   [-1, 1, CBAM, [1024]],     

   [[19, 23, 27], 1, Detect, [nc, anchors]],  # Detect(P3, P4, P5)
  ]
  • nc:检测的类别数
  • depth_multiple:控制每层代码块的个数
  • width_multiple:控制每层特征图的深度

3.模块配置

在yolo.py中加载模块,配置相关参数(先在Common.py中导入该模块)


​ elif m in [CBAM]:
​ c1, c2 = ch[f], args[0]
​ if c2 != no: # if not output
​ c2 = make_divisible(c2 * gw, 8)
​ args = [c1, *args[1:]]

4.开箱训练

笔者对一个三类别目标检测任务进行训练,得到最终的结果图如下

在这里插入图片描述

CBAM训练结果图

在这里插入图片描述

SENet训练结果图

训练超参数:hyp.yaml


​ lr0: 0.00334
​ lrf: 0.15135
​ momentum: 0.74832
​ weight_decay: 0.00025
​ warmup_epochs: 3.3835
​ warmup_momentum: 0.59462
​ warmup_bias_lr: 0.18657
​ box: 0.02
​ cls: 0.21638
​ cls_pw: 0.5
​ obj: 0.51728
​ obj_pw: 0.67198
​ iou_t: 0.2
​ anchor_t: 3.3744
​ fl_gamma: 0.0
​ fl_eiou_gamma: 0.0
​ hsv_h: 0.01041
​ hsv_s: 0.54703
​ hsv_v: 0.27739
​ degrees: 0.0
​ translate: 0.04591
​ scale: 0.75544
​ shear: 0.0
​ perspective: 0.0
​ flipud: 0.0
​ fliplr: 0.5
​ mosaic: 0.85834
​ mixup: 0.04266
​ copy_paste: 0.0
​ paste_in: 0.0

  • 所有实验默认初始化参数为yolov5s,模型为yolov5s权重加载
  • base_size=64,hyp=hyp.VOC.yaml,epoch=300,IOU=CIOU,Imgsz=640
  • 相比于普通的YOLOv5模型,添加了CBAM模块的模型在训练稳定性、检测精度和召回率上均有小幅提高,特别是在验证集的损失上能有效平缓的降低,整体性能与添加了SEAttention模块的模型的性能相当

项目分享:

https://gitee.com/sinonfin/algorithm-sharing

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值