yolov5

Ubuntu下yolov5项目开发

一、pycharm安装

1、在虚拟机中打开浏览器输入网址https://www.jetbrains.com/pycharm/,点击 download
2、选择linux版本下载并进行下载,下载结束后提取(解压)文件
3、打开终端,输入 cd,命令 ,进入刚解压文件夹下的 bin 文件夹,执行 ./pycharm.sh命令,开始安装pycharm,出现下面的界面后按continue,等待安装完成

二、anaconda安装

代码如下(示例):
1、https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/在清华的镜像中选择linux版本的anaconda进行下载
2、在下载文件所在文件夹右键点击文件夹,点击在终端中打开
3、运行bash Anaconda3-2021.11-Linux-x86_64.sh(其中后面文件名为所下载文件)
4、不断回车按yes
5、用conda list测试是否安装成功
注意:如果conda命令找到,则不需要添加环境变量;若出现conda: 未找到命令,则需要添加环境变量。
添加环境变量方式:
1、sudo vim ~/.bashrc,如果vim未安装,先安装,再执行sudo vim ~/.bashrc
2、在最后面添加,这个是根据自己的anaconda3安装路径填写,不要直接复制,具体安装路径在安装中有显示:

export PATH=/home/long/anaconda3/bin:$PATH

保存并退出(Esc :wq);
更新环境变量:

source ~/.bashrc

三、pytorch安装

示例:pandas 是基于NumPy 的一种工具,该工具是为了解决数据分析任务而创建的。
1、Conda创建虚拟环境pytorch

conda create -n pytorch

2、进入pytorch空间

conda activate pytorch

3、https://pytorch.org/进入pytorch官网
选择pytorch版本
选择好对应的系统
选择使用什么安装,conda里可以使用pip安装的
选择语言:python
生成指令:pip3 install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu113(根据自己需求 不要选择11.3及其以上)
conda install pytorch1.8.1 torchvision0.9.1 torchaudio0.8.1 cudatoolkit=10.2 -c pytorch
(用处也不大)
conda install pytorch
1.10.1 torchvision0.11.2 torchaudio0.10.1 cudatoolkit=10.2 -c pytorch
(不行的话conda换pip)
4、添加安装镜像源
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/msys2
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/pytorch/
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/r
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main
执行3中安装指令
注意:可以在pycharm中检查是否安装成功
python
import torch
torch.version
torch.cuda.is_available()

四、yolov5下载(可以通过pycharm配置解释器)

1、https://github.com/ultralytics/yolov5下载项目
2、解压后用pycharm打开
3、更换解释器
4、在pycharm终端运行pip3 install -U -r requirements.txt 或者
pip install -r requirements.txt
5、运行 detect.py

五、labelimg安装打标签

安装

1、采用源代码的方式安装,源码地址:https://github.com/tzutalin/labelImg
2、进入项目代码
sudo apt-get install pyqt5-dev-tools
pip install -r requirements/requirements-linux-python3.txt
make qt5py3
python3 labelImg.py

打标签

1、首先这里需要准备我们需要打标注的数据集。这里也算是乌龟的屁股,规定。创建VOCdevkit文件夹,其目录结构为:

VOCdevkit(文件夹)

------VOC2007(文件夹)

----------JPEGImages:存放需要打标签的图片

----------Annotations:存放标注生成的标签文件

----------predefined_classes.txt:要标注的类别名称(hat, person)

打开目录选定JPEGImages,虽然是规定,但是如果不想这么设置,也可以改。

改变存放目录选定Annotations文件夹。

PascalVoc说明我们标注的标签为voc格式,点击可以换成yolo或者createML格式。

如果类别巨多,每次都要自己手敲label也很崩溃,还有个办法,首先进入VOC2007路径下,输入如下代码:

labelImg JPEGImages predefined_classes.txt

Ctrl + u 加载目录中的所有图像,鼠标点击Open dir同功能
Ctrl + r 更改默认注释目标目录(xml文件保存的地址)
Ctrl + s 保存
Ctrl + d 复制当前标签和矩形框
space 将当前图像标记为已验证
w 创建一个矩形框
d 下一张图片
a 上一张图片
del 删除选定的矩形框
Ctrl++ 放大
Ctrl-- 缩小
↑→↓← 键盘箭头移动选定的矩形框

六、模型训练

1、下载yolov5项目https://github.com/ultralytics/yolov5/

现在来对代码的整体目录做一个介绍:

├── data:主要是存放一些超参数的配置文件(这些文件(yaml文件)是用来配置训练集和测试集还有验证集的路径的,其中还包括目标检测的种类数和种类的名称);还有一些官方提供测试的图片。如果是训练自己的数据集的话,那么就需要修改其中的yaml文件。但是自己的数据集不建议放在这个路径下面,而是建议把数据集放到yolov5项目的同级目录下面。

├── models:里面主要是一些网络构建的配置文件和函数,其中包含了该项目的四个不同的版本,分别为是s、m、l、x。从名字就可以看出,这几个版本的大小。他们的检测测度分别都是从快到慢,但是精确度分别是从低到高。这就是所谓的鱼和熊掌不可兼得。如果训练自己的数据集的话,就需要修改这里面相对应的yaml文件来训练自己模型。

├── utils:存放的是工具类的函数,里面有loss函数,metrics函数,plots函数等等。

├── weights:放置训练好的权重参数。

├── detect.py:利用训练好的权重参数进行目标检测,可以进行图像、视频和摄像头的检测。

├── train.py:训练自己的数据集的函数。

├── test.py:测试训练的结果的函数。

├──requirements.txt:这是一个文本文件,里面写着使用yolov5项目的环境依赖包的一些版本,可以利用该文本导入相应版本的包。

以上就是yolov5项目代码的整体介绍。我们训练和测试自己的数据集基本就是利用到如上的代码。
2、利用labelimg标注数据和数据的准备

1、将格式转换好的数据集划分为训练集和验证集

import os, random, shutil
 
 
def moveimg(fileDir, tarDir):
    pathDir = os.listdir(fileDir)  # 取图片的原始路径
    filenumber = len(pathDir)
    rate = 0.1  # 自定义抽取图片的比例,比方说100张抽10张,那就是0.1
    picknumber = int(filenumber * rate)  # 按照rate比例从文件夹中取一定数量图片
    sample = random.sample(pathDir, picknumber)  # 随机选取picknumber数量的样本图片
    print(sample)
    for name in sample:
        shutil.move(fileDir + name, tarDir  + name)
    return
 
def movelabel(file_list, file_label_train, file_label_val):
    for i in file_list:
        if i.endswith('.jpg'):
            # filename = file_label_train + "\\" + i[:-4] + '.xml'  # 可以改成xml文件将’.txt‘改成'.xml'就可以了
            filename = file_label_train  + i[:-4] + '.txt'  # 可以改成xml文件将’.txt‘改成'.xml'就可以了
            if os.path.exists(filename):
                shutil.move(filename, file_label_val)
                print(i + "处理成功!")
 
 
 
if __name__ == '__main__':
    fileDir = r"/home/ancy/yolov5/VOCdevkit/VOC2007/JPEGImages/"   # 源图片文件夹路径
    tarDir = r'/home/ancy/yolov5/VOCdevkit/VOC2007/JPEGImages_val/'  # 图片移动到新的文件夹路径
    moveimg(fileDir, tarDir)
    file_list = os.listdir(tarDir)
    file_label_train = r"/home/ancy/yolov5/VOCdevkit/VOC2007/Annotations/"  # 源图片标签路径
    file_label_val = r"/home/ancy/yolov5/VOCdevkit/VOC2007/Annotations_val/"  # 标签
      # 移动到新的文件路径
    movelabel(file_list, file_label_train, file_label_val)

如上的代码的原理是将一个文件夹里面的图片按一定的比例(可以自己设定,修改第7行中的rate的值就可以了)抽取照片放入到一个新的文件夹里面(需要自己新建一个文件夹)。这样源文件夹就变成了训练集,新建的为验证集。然后代码会将抽取照片对应的标签文件放入到一个新建的文件夹中(该文件夹需要新建)。这样我们就有图片的训练集和验证集,还有其对应的标签文件。使用同样的代码还可以将数据集多划分一个测试集出来,这样方便测试用。

在这里插入图片描述

2、获得预训练权重https://github.com/ultralytics/yolov5/releases
训练自己的数据集用的预训练权重为yolov5s.pt(s、m、l、x)
可以放到weights目录下,设置各个参数,即可开始训练
3、训练自己的模型

预训练模型和数据集都准备好了,就可以开始训练自己的yolov5目标检测模型了,训练目标检测模型需要修改两个yaml文件中的参数。一个是data目录下的相应的yaml文件,一个是model目录文件下的相应的yaml文件。
修改data目录下的相应的yaml文件。找到目录下的voc.yaml文件,将该文件复制一份,将复制的文件重命名,最好和项目相关,这样方便后面操作。我这里修改为hat.yaml。该项目是对安全帽的识别。

在这里插入图片描述在这里插入图片描述要使用models目录下的yolov5s.yaml文件中的相应参数(因为不同的预训练权重对应着不同的网络层数,所以用错预训练权重会报错)。同上修改data目录下的yaml文件一样,我们最好将yolov5s.yaml文件复制一份,然后将其重命名,我将其重命名为yolov5_hat.yaml。

在这里插入图片描述在这里插入图片描述
训练自己的模型启用tensorbord查看参数
如果上面的数据集和两个yaml文件的参数都修改好了的话,就可以开始yolov5的训练了。首先我们找到train.py这个py文件

if __name__ == '__main__':
"""
    opt模型主要参数解析:
    --weights:初始化的权重文件的路径地址
    --cfg:模型yaml文件的路径地址
    --data:数据yaml文件的路径地址
    --hyp:超参数文件路径地址
    --epochs:训练轮次
    --batch-size:喂入批次文件的多少
    --img-size:输入图片尺寸
    --rect:是否采用矩形训练,默认False
    --resume:接着打断训练上次的结果接着训练
    --nosave:不保存模型,默认False
    --notest:不进行test,默认False
    --noautoanchor:不自动调整anchor,默认False
    --evolve:是否进行超参数进化,默认False
    --bucket:谷歌云盘bucket,一般不会用到
    --cache-images:是否提前缓存图片到内存,以加快训练速度,默认False
    --image-weights:使用加权图像选择进行训练
    --device:训练的设备,cpu;0(表示一个gpu设备cuda:0);0,1,2,3(多个gpu设备)
    --multi-scale:是否进行多尺度训练,默认False
    --single-cls:数据集是否只有一个类别,默认False
    --adam:是否使用adam优化器
    --sync-bn:是否使用跨卡同步BN,在DDP模式使用
    --local_rank:DDP参数,请勿修改
    --workers:最大工作核心数
    --project:训练模型的保存位置
    --name:模型保存的目录名称
    --exist-ok:模型目录是否存在,不存在就创建
"""
    parser = argparse.ArgumentParser()
    parser.add_argument('--weights', type=str, default='yolov5s.pt', help='initial weights path')
    parser.add_argument('--cfg', type=str, default='', help='model.yaml path')
    parser.add_argument('--data', type=str, default='data/coco128.yaml', help='data.yaml path')
    parser.add_argument('--hyp', type=str, default='data/hyp.scratch.yaml', help='hyperparameters path')
    parser.add_argument('--epochs', type=int, default=300)
    parser.add_argument('--batch-size', type=int, default=16, help='total batch size for all GPUs')
    parser.add_argument('--img-size', nargs='+', type=int, default=[640, 640], help='[train, test] image sizes')
    parser.add_argument('--rect', action='store_true', help='rectangular training')
    parser.add_argument('--resume', nargs='?', const=True, default=False, help='resume most recent training')
    parser.add_argument('--nosave', action='store_true', help='only save final checkpoint')
    parser.add_argument('--notest', action='store_true', help='only test final epoch')
    parser.add_argument('--noautoanchor', action='store_true', help='disable autoanchor check')
    parser.add_argument('--evolve', action='store_true', help='evolve hyperparameters')
    parser.add_argument('--bucket', type=str, default='', help='gsutil bucket')
    parser.add_argument('--cache-images', action='store_true', help='cache images for faster training')
    parser.add_argument('--image-weights', action='store_true', help='use weighted image selection for training')
    parser.add_argument('--device', default='', help='cuda device, i.e. 0 or 0,1,2,3 or cpu')
    parser.add_argument('--multi-scale', action='store_true', help='vary img-size +/- 50%%')
    parser.add_argument('--single-cls', action='store_true', help='train multi-class data as single-class')
    parser.add_argument('--adam', action='store_true', help='use torch.optim.Adam() optimizer')
    parser.add_argument('--sync-bn', action='store_true', help='use SyncBatchNorm, only available in DDP mode')
    parser.add_argument('--local_rank', type=int, default=-1, help='DDP parameter, do not modify')
    parser.add_argument('--workers', type=int, default=8, help='maximum number of dataloader workers')
    parser.add_argument('--project', default='runs/train', help='save to project/name')
    parser.add_argument('--entity', default=None, help='W&B entity')
    parser.add_argument('--name', default='exp', help='save to project/name')
    parser.add_argument('--exist-ok', action='store_true', help='existing project/name ok, do not increment')
    parser.add_argument('--quad', action='store_true', help='quad dataloader')
    parser.add_argument('--linear-lr', action='store_true', help='linear LR')
    parser.add_argument('--label-smoothing', type=float, default=0.0, help='Label smoothing epsilon')
    parser.add_argument('--upload_dataset', action='store_true', help='Upload dataset as W&B artifact table')
    parser.add_argument('--bbox_interval', type=int, default=-1, help='Set bounding-box image logging interval for W&B')
    parser.add_argument('--save_period', type=int, default=-1, help='Log model after every "save_period" epoch')
    parser.add_argument('--artifact_alias', type=str, default="latest", help='version of dataset artifact to be used')
    opt = parser.parse_args()

训练自己的模型需要修改如下几个参数就可以训练了。首先将weights权重的路径填写到对应的参数里面,然后将修好好的models模型的yolov5s.yaml文件路径填写到相应的参数里面,最后将data数据的hat.yaml文件路径填写到相对于的参数里面。这几个参数就必须要修改的参数。

parser.add_argument('--weights', type=str, default='weights/yolov5s.pt', help='initial weights path')
parser.add_argument('--cfg', type=str, default='models/yolov5s_hat.yaml', help='model.yaml path')
parser.add_argument('--data', type=str, default='data/hat.yaml', help='data.yaml path')

这里就要调小这两个参数了,每个人的电脑配置不一样,所以可以根据自己的电脑配置来修改参数。
parser.add_argument(‘–batch-size’, type=int, default=8, help=‘total batch size for all GPUs’)

parser.add_argument(‘–workers’, type=int, default=8, help=‘maximum number of dataloader workers’)

参考网址:
https://blog.csdn.net/didiaopao/article/details/119954291


  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值