yolov5训练自己的数据集,详细教程!

yolov5系列文章目录

yolov5 win10 CPU与GPU环境搭建,亲测有效!
爬取百度图片Python脚本
yolov5训练自己的数据集,详细教程!
yolov5转tensorrt模型



前言

前一篇文章已经交代了yolov5的安装步骤,这篇文章来讲述一下训练自己的数据集的过程。
公司项目:轮船黑烟检测,现在基本做完了特此来记录一下。


一、数据集的制作

制作数据集是一个繁琐且枯燥的过程,这里需要使用LabelImg工具,具体步骤就不展开了,但是大家标注具体类别的时候一定要细心,因为这会决定你的预测结果。
尽量标注最小矩形框!!!
我用到的是自己收集和标注的黑烟数据集,大概7000张。

二、配置文件

1.创建文件

在data下创建如下几个文件夹(注意: images内为数据集原始图片,Annotations内为标注的xml文件)
并将images内文件复制到JPEGIamges中。
在这里插入图片描述
根目录下创建 make_txt.py 文件,代码如下:

import os
import random
trainval_percent = 0.1
train_percent = 0.9
xmlfilepath = 'data/Annotations'
txtsavepath = 'data/ImageSets'
total_xml = os.listdir(xmlfilepath)
num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list, tv)
train = random.sample(trainval, tr)
ftrainval = open('data/ImageSets/trainval.txt', 'w')
ftest = open('data/ImageSets/test.txt', 'w')
ftrain = open('data/ImageSets/train.txt', 'w')
fval = open('data/ImageSets/val.txt', 'w')
for i in list:
    name = total_xml[i][:-4] + '\n'
    if i in trainval:
        ftrainval.write(name)
        if i in train:
            ftest.write(name)
        else:
            fval.write(name)
    else:
        ftrain.write(name)
ftrainval.close()
ftrain.close()
fval.close()
ftest.close()

根目录下继续创建 voc_label.py 文件,代码如下:

import xml.etree.ElementTree as ET
import pickle
import os
from os import listdir, getcwd
from os.path import join
sets = ['train', 'test','val']
classes = ['darksmoke']
def convert(size, box):
    dw = 1. / size[0]
    dh = 1. / size[1]
    x = (box[0] + box[1]) / 2.0
    y = (box[2] + box[3]) / 2.0
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x * dw
    w = w * dw
    y = y * dh
    h = h * dh
    return (x, y, w, h)
def convert_annotation(image_id):
    in_file = open('data/Annotations/%s.xml' % (image_id))
    out_file = open('data/labels/%s.txt' % (image_id), 'w')
    tree = ET.parse(in_file)
    root = tree.getroot()
    size = root.find('size')
    w = int(size.find('width').text)
    h = int(size.find('height').text)
    for obj in root.iter('object'):
        difficult = obj.find('difficult').text
        cls = obj.find('name').text
        if cls not in classes or int(difficult) == 1:
            continue
        cls_id = classes.index(cls)
        xmlbox = obj.find('bndbox')
        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
             float(xmlbox.find('ymax').text))
        bb = convert((w, h), b)
        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
wd = getcwd()
print(wd)
for image_set in sets:
    if not os.path.exists('data/labels/'):
        os.makedirs('data/labels/')
    image_ids = open('data/ImageSets/%s.txt' % (image_set)).read().strip().split()
    list_file = open('data/%s.txt' % (image_set), 'w')
    for image_id in image_ids:
        list_file.write('data/images/%s.jpg\n' % (image_id))
        convert_annotation(image_id)
    list_file.close()

在这里要注意: 我这里的 classes = [‘darksmoke’] 仅代表我的数据集需要标注的类别是darksmoke类,单引号的内容需要根据你的数据集确定,有几类就写几类。

修改之后,依次执行上面两个py文件,执行成功是这样的:
(1) labels下生成txt文件(显示数据集的具体标注数据)
在这里插入图片描述
(2) ImageSets下生成四个txt文件
在这里插入图片描述
(3) data下生成三个txt文件(带有图片的路径)
在这里插入图片描述

2 .修改yaml文件

这里的yaml和以往的cfg文件是差不多的,但需要配置一份属于自己数据集的yaml文件。
复制data目录下的coco.yaml,我这里命名为darksmoke.yaml
主要修改三个地方:
在这里插入图片描述
a. 修改train,val,test的路径为自己刚刚生成的路径
b. nc 里的数字代表数据集的类别,我这里只有darksmoke一类,所以修改为1
c. names 里为自己数据集标注的类名称,我这里是darksmoke

3.修改models模型文件

models下有四个模型,smlx需要训练的时间依次增加,按照需求选择一个文件进行修改即可
在这里插入图片描述
因为是工程项目,这里修改了yolov5x.yaml,确保有效性,只需要将nc的类别修改为自己需要的即可,我这里是一类所以为1。
在这里插入图片描述

4.训练train.py

这里需要对train.py文件内的参数进行修改,按照我们的计算机配置修改即可,以下是按照公司显卡2080TI来配置的。
在这里插入图片描述
weights,cfd,data按照自己所需文件的路径修改即可
epochs迭代次数自己决定,我这里仅用300次进行测试
batch-size过高可能会影响电脑运行速度,还是要根据自己电脑硬件条件决定增加还是减少
修改完成,运行即可!

5.可能遇到的错误

1.训练时总是提醒out of memory
在这里插入图片描述
解决尝试:
1.把batchsize调小
2.如果batchsize设置为1了跑不起来,在train.py文件开头加上(我遇到的问题)

import os
os.environ['CUDA_VISIBLE_DEVICES']='0'

6.测试detect.py

train.py跑完时,会在runs\train\exp**\weights下生成最好与最新的pt权重文件。
在这里插入图片描述
可以去detect.py下修改参数,也可以直接运行这一行代码

python detect.py --weights runs/train/exp3/weights/best.pt --source data/Samples/ --device 0 --save-txt

source data/Samples/ 代表的是需要预测的图片路径,根据自己情况修改即可

运行结果:(结果图片会在runs\detect\exp文件夹中生成)
在这里插入图片描述
淡淡的黑烟也能检测出:
在这里插入图片描述

总结

yolov5效果很强大,也很容易上手!!!学了yolov5就不想再用mask了。。。
数据集有需要记得留言呀!!!
如果阅读本文对你有用,欢迎关注点赞评论收藏呀!!!
2021年1月16日14:50:31

参考链接

  • 20
    点赞
  • 75
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 11
    评论
开源神器YOLOv5已经成为了许多科研、工业领域检测任务的首选模型,而我们经常需要基于自己的数据集进行模型训练。本文将简单介绍YOLOv5训练自己数据集的方法。 第一步:安装YOLOv5 首先需要在自己的电脑或服务器上安装YOLOv5。可以通过以下命令获取YOLOv5: ``` git clone https://github.com/ultralytics/yolov5.git cd yolov5 pip install -r requirements.txt ``` 在安装依赖库的过程中可能会出现各种问题,例如需要安装cmake、cuda等,可以参考github的一些安装教程。 第二步:准备数据集YOLOv5训练自己的数据集需要准备如下文件: - 图像:保存在一个文件夹中,文件夹名字可以是任意的。 - 标注文件:包含每图像中物体的位置信息,通常使用xml格式或者txt格式。 图像和标注文件的命名需保持一致,例如: ``` folder ── 000001.jpg ── 000001.txt ── 000002.jpg ── 000002.txt ... ``` 标注文件格式如下: ``` <class_name> <x_center> <y_center> <width> <height> ``` 其中`<class_name>`是物体的标签,`<x_center> <y_center>`是物体中心点的坐标,`<width> <height>`是物体的宽度和高度。 第三步:修改配置文件 修改YOLOv5中的配置文件,包括yaml文件和python文件。首先根据要训练数据集的数量和类别数修改yaml文件,例如voc.yaml。将nc(数据集中的类别个数)修改为自己需要的数量,并在names项中添加自己的类别名称。 然后修改train.py文件,将--data参数指向yaml文件路径,将--cfg参数指向yolov5s.yaml。 第四步:训练模型 完成上述步骤后,就可以开始训练模型了,可以通过以下命令启动训练过程: ``` python train.py --img 640 --batch 16 --epochs 20 --data path/to/voc.yaml --cfg yolov5s.yaml ``` 其中的`--img`参数指定了输入图像的大小,`--batch`参数指定了批次大小,`--epochs`参数指定了训练的轮数。可以根据自己的需求进行调整。 训练模型需要一定的时间,训练过程中可以通过tensorboard观察模型的训练效果和训练过程中的损失函数变化。 第五步:测试模型 训练完模型后,可以通过以下命令进行模型测试: ``` python detect.py --source ./data/images --weights runs/train/exp/weights/best.pt --conf 0.4 ``` 其中的`--source`参数指定了测试图像的文件路径,`--weights`参数指定了模型权重文件的路径,`--conf`参数指定了置信度的阈值。 最后,通过以上几个步骤,就可以使用YOLOv5训练自己的数据集。当然,训练模型需要足够多的数据量和标注数量,以及对数据集进行一定的扩增,才能获取更好的检测效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AI小笔记

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值