YOLOv5如何训练自己的数据集

目录

一、标注

1.1 标注软件下载labelimg

下载地址:mirrors / tzutalin / labelimg · GitCode

1.2 json转txt

1.3 xml转txt

二、修改配置文件

2.1 建立文件目录

2.2 修改wzry_parameter.yaml文件

三、开始训练

3.1

2.结果

四、识别检测detect.py

1.调参找到def parse_opt():这行,以下是我们要调参的位置

 2.结果结果在runs/detect/exp中原文链接:https://blog.csdn.net/m0_53392188/article/details/119334634


从第三章开始就错了,我的train.py运行有问题,可能原文是v5环境,我直接再7里面弄的

一、标注

有两个软件可以用:labelme,需要json转txt(我用的这个)还有一个是labelimg是将xml转为txt.

1.1 标注软件下载labelimg

下载地址:mirrors / tzutalin / labelimg · GitCode

下载后解压压缩包,注意路径一定不要有中文名称。

在labeling目录下,打开cmd,然后输入:pyrcc5 -o resources.py resources.qrc

可能出现错误:

 将resources.py文件放入libs文件夹,再输入python labelImg.py进入以下界面

 

到此,安装成功!!!

参考文章:labelImg安装所遇到的那些坑_与君初相识的博客-CSDN博客

方法二:

参考文章:

GitHub - wkentaro/labelme: Image Polygonal Annotation with Python (polygon, rectangle, circle, line, point and image-level flag annotation).

下载完成之后,在Anaconda Prompt里pip install pyqt5和pip install labelme

右击,点击rectangle,即画矩形框,框选你要识别训练的东西,框选之后输入标签的名字,注意,可以框选多个作为标签。框选完一张图后保存,然后接着下一张图。保存的文件格式是.json 

1.2 json转txt

由于yolov5只认txt而不认json,因此还要有一个转换的过程

在yolov5-master中创建一个.py文件,代码如下:

name2id = {'fbb': 0} 是标签的名字,我只搞了一个标签;注意,json文件夹下只能由json,不要和你的图片放在一个文件夹下了。

import json
import os

name2id = {'fbb': 0}  # 标签名称


def convert(img_size, box):
    dw = 1. / (img_size[0])
    dh = 1. / (img_size[1])
    x = (box[0] + box[2]) / 2.0 - 1
    y = (box[1] + box[3]) / 2.0 - 1
    w = box[2] - box[0]
    h = box[3] - box[1]
    x = x * dw
    w = w * dw
    y = y * dh
    h = h * dh
    return (x, y, w, h)


def decode_json(json_floder_path, json_name):
    txt_name = 'C:\\MyWorkSpace\\PythonWorkSpace\\yolov7-main\\yolov7-main\\MX\\datasets\\labels\\train\\' + json_name[0:-5] + '.txt'
    # 存放txt的绝对路径
    txt_file = open(txt_name, 'w')

    json_path = os.path.join(json_floder_path, json_name)
    data=json.load(open(json_path,'r',encoding='gb2312',errors='ignore'))
    img_w = data['imageWidth']
    img_h = data['imageHeight']

    for i in data['shapes']:

        label_name = i['label']
        if (i['shape_type'] == 'rectangle'):
            x1 = int(i['points'][0][0])
            y1 = int(i['points'][0][1])
            x2 = int(i['points'][1][0])
            y2 = int(i['points'][1][1])

            bb = (x1, y1, x2, y2)
            bbox = convert((img_w, img_h), bb)
            txt_file.write(str(name2id[label_name]) + " " + " ".join([str(a) for a in bbox]) + '\n')


if __name__ == "__main__":
    json_path = r"C:\MyWorkSpace\YOLOV7_Pack\Picture\FanBinBin"
    # 存放json的文件夹的绝对路径
    json_names = os.listdir(json_path)
    for json_name in json_names:
        decode_json(json_path, json_name)

1.3 xml转txt

这是别人的方法,我没试

import xml.etree.ElementTree as ET
import pickle
import os
from os import listdir, getcwd
from os.path import join
 
 
def convert(size, box):
    # size=(width, height)  b=(xmin, xmax, ymin, ymax)
    # x_center = (xmax+xmin)/2        y_center = (ymax+ymin)/2
    # x = x_center / width            y = y_center / height
    # w = (xmax-xmin) / width         h = (ymax-ymin) / height
 
    x_center = (box[0] + box[1]) / 2.0
    y_center = (box[2] + box[3]) / 2.0
    x = x_center / size[0]
    y = y_center / size[1]
 
    w = (box[1] - box[0]) / size[0]
    h = (box[3] - box[2]) / size[1]
 
    # print(x, y, w, h)
    return (x, y, w, h)
 
 
def convert_annotation(xml_files_path, save_txt_files_path, classes):
    xml_files = os.listdir(xml_files_path)
    # print(xml_files)
    for xml_name in xml_files:
        # print(xml_name)
        xml_file = os.path.join(xml_files_path, xml_name)
        out_txt_path = os.path.join(save_txt_files_path, xml_name.split('.')[0] + '.txt')
        out_txt_f = open(out_txt_path, 'w')
        tree = ET.parse(xml_file)
        root = tree.getroot()
        size = root.find('size')
        w = int(size.find('width').text)
        h = int(size.find('height').text)
 
        for obj in root.iter('object'):
            difficult = obj.find('difficult').text
            cls = obj.find('name').text
            # if cls not in classes or int(difficult) == 1:
            #     continue
            cls_id = classes.index(cls)
            xmlbox = obj.find('bndbox')
            b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
                 float(xmlbox.find('ymax').text))
            # b=(xmin, xmax, ymin, ymax)
            # print(w, h, b)
            bb = convert((w, h), b)
            out_txt_f.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
 
 
if __name__ == "__main__":
    # 把forklift_pallet的voc的xml标签文件转化为yolo的txt标签文件
    # 1、需要转化的类别
    classes = ['People', 'Car', 'Bus', 'Motorcycle', 'Lamp', 'Truck']
    # 2、voc格式的xml标签文件路径
    xml_files1 = r'D:\Technology\Python_File\yolov5\M3FD\Annotation_xml'
    # xml_files1 = r'C:/Users/GuoQiang/Desktop/数据集/标签1'
 
    # 3、转化为yolo格式的txt标签文件存储路径
    save_txt_files1 = r'D:\Technology\Python_File\yolov5\M3FD\Annotation_txt'
 
    convert_annotation(xml_files1, save_txt_files1, classes)

二、修改配置文件

2.1 建立文件目录

 image:图片                label:标签

train:用于训练的        test:用于测试的

2.2 修改wzry_parameter.yaml文件

在yolov5/data/coco128.yaml中先复制一份,粘贴到wzry中,改名为wzry_parameter.yaml

wzry_parameter.yaml文件需要修改的参数是nc与namesnc是标签名个数,names就是标签的名字

 

说明:

path是绝对路径

train是在path绝对路径条件下的训练集路径,即:wzry/datasets/images/train

val同上,但是是验证集,这里我为了方便,让训练集和验证集是一个,也没啥大问题。

test可不填

关于训练集、验证集、测试集三者关系,如下:

如何正确使用机器学习中的训练集、验证集和测试集?_nkwshuyi的博客-CSDN博客

yolov5有4种配置,不同配置的特性如下,我这里选择yolov5x,效果较好,但是训练时间长,也比较吃显存

yolov5/models先复制一份yolov5x.yaml至wzry,更名为wzry_model.yaml(意为模型),只将如下的nc修改为训练集种类即可

三、开始训练

3.1

在train.py,找到def parse_opt(known=False)这行,这下面是我们要修改的程序部分

 

我标注“修改处”的,是一定要修改的;其他的注释是一些较为重要的参数,对于小白而言不改也可。具体修改的地方为defalut后

479行:是我们训练的初始权重的位置,是以.pt结尾的文件,第一次训练用别人已经训练出来的权重。可能有朋友会想,自己训练的数据集和别人训练的数据集不一样,怎么能通用呢?实际上他们是通用的,后面训练会调整过来。而如果不填已有权重,那么训练效果可能会不好;

480行:训练模型文件,在本项目中对应wzry_model.yaml;

481行:数据集参数文件,在本项目中对于wzry_parameter.yaml;

482行:超参数设置,是人为设定的参数。包括学习率啥的等等,可不改;

483行:训练轮数,决定了训练时间与训练效果。如果选择训练模型是yolov5x.yaml,那么大约200轮数值就稳定下来了(收敛);

484行:批量处理文件数,这个要设置地小一些,否则会out of memory。这个决定了我们训练的速度;

485行:图片大小,虽然我们训练集的图片是已经固定下来了,但是传入神经网络时可以resize大小,太大了训练时间会很长,且有可能报错,这个根据自己情况调小一些;

487行:断续训练,如果说在训练过程中意外地中断,那么下一次可以在这里填True,会接着上一次runs/exp继续训练

496行:GPU加速,填0是电脑默认的CUDA,前提是电脑已经安装了CUDA才能GPU加速训练,安装过程可查博客

501行:多线程设置,越大读取数据越快,但是太大了也会报错,因此也要根据自己状况填小。
3.2

2.结果

运行效果正确的应该是这个样子:

 

结果保存在runs/train/exp中,多次训练就会有exp1、exp2、等等

best.pt和last.pt是我们训练出来的权重文件,比较重要,用于detect.py。last是最后一次的训练结果,best是效果最好的训练结果(只是看起来,但是泛化性不一定强)。

 

四、识别检测detect.py

1.调参
找到def parse_opt():这行,以下是我们要调参的位置

217行:填我们训练好的权重文件路径

218行:我们要检测的文件,可以是图片、视频、摄像头。填0时为打开电脑默认摄像头

219行:数据集参数文件,同上

220行:图片大小,同上

221行:置信度,当检测出来的置信度大于该数值时才能显示出被检测到,就是显示出来的框框

222行:非极大抑制,具体不赘述了,自行查阅,可不改

224行:GPU加速,同上

 2.结果
结果在runs/detect/exp中

原文链接:https://blog.csdn.net/m0_53392188/article/details/119334634

  • 1
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

qq_42475191

谢谢老板

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值