YOLOAir:面向小白的目标检测库,更快更方便更完整的YOLO库
模型多样化:基于不同网络模块构建不同检测网络模型。
模块组件化:帮助用户自定义快速组合Backbone、Neck、Head,使得网络模型多样化,助力科研改进检测算法、模型改进,网络排列组合,构建强大的网络模型。
统一模型代码框架、统一应用方式、统一调参、统一改进、易于模块组合、构建更强大的网络模型:内置YOLOv5、YOLOv7、YOLOX、YOLOR、Transformer、Scaled_YOLOv4、YOLOv3、YOLOv4、YOLO-Facev2、TPH-YOLO、YOLOv5Lite、SPD-YOLO、SlimNeck-YOLO、PicoDet等模型网络结构
基于 YOLOv5 代码框架,并同步适配稳定的YOLOv5_v6.1更新, 同步v6.1部署生态。使用这个项目之前, 您可以先了解YOLOv5库。
YOLOv5仓库:https://github.com/ultralytics/yolov5
YOLOAir项目地址🌟: https://github.com/iscyy/yoloair
YOLOAir部分改进说明教程🌟: https://github.com/iscyy/yoloair/wiki/Improved-tutorial-presentation
YOLOAir CSDN地址:https://blog.csdn.net/qq_38668236
YOLOAir库使用说明
1. 下载源码
$ git clone https://github.com/iscyy/yoloair.git
或者打开github链接,下载项目源码,点击Code选择Download ZIP
YOLOAir官方库地址: https://github.com/iscyy/yoloair
2. 配置环境
首先电脑安装Anaconda,本文YOLOAir环境安装在conda虚拟环境里
2.1 创建一个python3.8的conda环境yoloair
conda create -n yoloair python=3.8
2.2 安装Pytorch和Torchvision环境
安装Pytorch有种方式,一种是官网链接[安装]https://pytorch.org/(),另外一中是下载whl包到本地再安装
Pytorch whl包下载地址:https://download.pytorch.org/whl/torch/
TorchVision包下载地址:https://download.pytorch.org/whl/torchvision/
本文Pytorch安装的版本为1.8.0,torchvision对应的版本为0.9.0
注意:cp对应Python包版本,linux对应lLinux版本,win对应Windows版本
当whl文件下载到本地后,进入包下载命令,使用pip install 包名来安装:
pip install torch-1.8.0+cu111-cp38-cp38-win_amd64.whl
pip install torchvision-0.9.0+cu111-cp38-cp38-win_amd64.whl
2.3 安装其他包依赖
YOLOAir项目依赖包具体包含如下:其中Base模块是基本项目依赖包,Logging和Plotting是模型训练时用到的日志和画图包,Export是用于模型转换时用到的(如pt转ONNX、TRT等),thop包是用来计算参数量的
进入到下载的YOLOAir项目目录,使用以下命令安装项目包依赖
pip install -r requirements.txt # 安装依赖包
如果嫌安装速度太慢,可以在以下网站找包下载到本地再安装
https://pypi.org/
2.4 开箱训练
train.py里面可以设置各种参数,具体参数解释详见后续实战更新
python train.py --data coco128.yaml --cfg configs/yolov5/yolov5s.yaml
2.5 模型推理
detect.py在各种数据源上运行推理, 并将检测结果保存到runs/detect目录
python detect.py --source 0 # 网络摄像头
img.jpg # 图像
vid.mp4 # 视频
path/ # 文件夹
path/*.jpg # glob
2.6 集成融合
如果使用不同模型来推理数据集,则可以使用 wbf.py文件通过加权框融合来集成结果,只需要在wbf.py文件中设置img路径和txt路径
$ python wbf.py
开箱使用YOLOAir
1. 模块选择
本文选取经典通道注意力模块SENet:Squeeze-and-Excitation Networks,整体网络结构如下图所示:
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-kiIkOJK7-1663057766209)(C:\Users\Administrator\Desktop\wendang\assets\1663053125822.png)]
- Squeeze:原始feature map的维度为HxWxC,Squeeze做的事情是把HxWxC压缩为1x1xC,相当于把HxW压缩成一维,实际中一般是用global average pooling实现的。HxW压缩成一维后,相当于这一维参数获得了之前HxW全局的视野,感受区域更广。
- Excitation:得到Squeeze的1x1xC的表示后,加入一个全连接层(Fully Connected),对每个通道的重要性进行预测,得到不同channel的重要性大小后再激励到之前的feature map的对应channel上,再进行后续操作,具体实现如下代码所示。
import numpy as np
import torch
from torch import nn
from torch.nn import init
# https://arxiv.org/abs/1709.01507
class SEAttention(nn.Module):
def __init__(self, channel=512,reduction=16):
super().__init__()
self.avg_pool = nn.AdaptiveAvgPool2d(1)
self.fc = nn.Sequential(
nn.Linear(channel, channel // reduction, bias=False),
nn.ReLU(inplace=True),
nn.Linear(channel // reduction, channel, bias=False),
nn.Sigmoid()
)
def init_weights(self):
for m in self.modules():
if isinstance(m, nn.Conv2d):
init.kaiming_normal_(m.weight, mode='fan_out')
if m.bias is not None:
init.constant_(m.bias, 0)
elif isinstance(m, nn.BatchNorm2d):
init.constant_(m.weight, 1)
init.constant_(m.bias, 0)
elif isinstance(m, nn.Linear):
init.normal_(m.weight, std=0.001)
if m.bias is not None:
init.constant_(m.bias, 0)
def forward(self, x):
b, c, _, _ = x.size()
# # AIEAGNY
y = self.avg_pool(x).view(b, c)
y = self.fc(y).view(b, c, 1, 1)
return x * y.expand_as(x)
参考论文:https://arxiv.org/pdf/1709.01507.pdf
2.模型配置
# YOLOv5 🚀 by YOLOAir, GPL-3.0 license
# Parameters
nc: 80 # number of classes
depth_multiple: 0.33 # model depth multiple
width_multiple: 0.50 # layer channel multiple
anchors:
- [10,13, 16,30, 33,23] # P3/8
- [30,61, 62,45, 59,119] # P4/16
- [116,90, 156,198, 373,326] # P5/32
# YOLOv5 v6.0 backbone
backbone:
# [from, number, module, args]
[[-1, 1, Conv, [64, 6, 2, 2]], # 0-P1/2
[-1, 1, Conv, [128, 3, 2]], # 1-P2/4
[-1, 3, C3, [128]],
[-1, 1, Conv, [256, 3, 2]], # 3-P3/8
[-1, 6, C3, [256]],
[-1, 1, Conv, [512, 3, 2]], # 5-P4/16
[-1, 9, C3, [512]],
[-1, 1, Conv, [1024, 3, 2]], # 7-P5/32
[-1, 3, C3, [1024]],
[-1, 1, SPPF, [1024, 5]], # 9
]
# YOLOv5 v6.0 head
head:
[[-1, 1, Conv, [512, 1, 1]],
[-1, 1, nn.Upsample, [None, 2, 'nearest']],
[[-1, 6], 1, Concat, [1]], # cat backbone P4
[-1, 3, C3, [512, False]], # 13
[-1, 1, Conv, [256, 1, 1]],
[-1, 1, nn.Upsample, [None, 2, 'nearest']],
[[-1, 4], 1, Concat, [1]], # cat backbone P3
[-1, 3, C3, [256, False]], # 17 (P3/8-small)
[-1, 1, Conv, [256, 3, 2]],
[[-1, 14], 1, Concat, [1]], # cat head P4
[-1, 3, C3, [512, False]], # 20 (P4/16-medium)
[-1, 1, Conv, [512, 3, 2]],
[[-1, 10], 1, Concat, [1]], # cat head P5
[-1, 3, C3, [1024, False]], # 23 (P5/32-large)
[-1, 1, SEAttention, [1024]],
[[17, 20, 24], 1, Detect, [nc, anchors]], # Detect(P3, P4, P5)
]
- nc:检测的类别数
- depth_multiple:控制每层代码块的个数
- width_multiple:控制每层特征图的深度
3.模块配置
在yolo.py中加载模块,配置相关参数(先在Common.py中导入该模块)
elif m in [S2Attention, SimSPPF, ACmix, CrissCrossAttention, SOCA, ShuffleAttention, SEAttention, SimAM, SKAttention]:
c1, c2 = ch[f], args[0]
if c2 != no: # if not output
c2 = make_divisible(c2 * gw, 8)
args = [c1, *args[1:]]
4.开箱训练
笔者对一个三类别目标检测任务进行训练,得到最终的结果图如下
相比于普通的YOLOv5模型,添加了SEAttention模块的模型在训练稳定性、检测精度和召回率上均有小幅提高,特别是在验证集的损失上能有效平缓的降低
总结
开箱即用YOLOAir库,使用或自定义模块遵循以下几个部分:
- 模块选择
- 模型配置
- 模块配置
- 开箱训练
彩蛋
本文对构建YOLOAir库环境进行详细阐述,笔者以后会定期分享关于项目的其他模块和相关技术,笔者也建立了一个关于目标检测的交流群:781334731,大家也可扫描下面这张图片加入,欢迎大家踊跃加入,一起学习鸭!
笔者也持续更新一个微信公众号:Nuist计算机视觉与模式识别,大家帮忙点个关注,后台回复YOLOAir(二)获取本文PDF。
炼丹
笔者最近沉迷于炼丹,在网上发现两个宝藏炼丹平台,AutoDL和恒源智享云,这两个平台新人注册和学生认证都有福利,而且租用显卡支持按小时/天/月收费,大家感兴趣可以看看哦。目前AutoDL的TITAN Xp显卡学生认证后低至0.52元/.小时,RTX GeForce 2080Ti显卡学生认证后低至0.88元/小时,新用户注册后可直接领取10元代金券。如果感兴趣的话,可以通过以下链接注册使用。
AutoDL:https://www.autodl.com/register?code=79aaeca7-b378-4b9d-90c3-99b2a8864596
恒源智享云:https://gpushare.com/auth/register?user=15*****3693&fromId=3e7200b12c2a&source=link