⭐YOLOv7训练自己的数据集(全网最详细 亲测有效)⭐

本文详细介绍了如何在Windows环境下配置环境(包括Anaconda、CUDA、Cudnn和PyTorch),准备数据集(包括使用LabelImg进行标注和划分),以及使用YOLOv7进行模型训练和测试的过程,还列出了常见的错误及解决方案。
摘要由CSDN通过智能技术生成

一、前言

本项目我想分为三个阶段下面概述一下:

  • 🥇环境配置

  • 🥇数据集准备

  • 🥇使用YOLOv7训练并测试自己的数据集

  • 🥇一些常用的报错

🥇二、环境配置

🥇2.1 安装Anaconda

Anaconda包括Conda、Python以及一大堆安装好的工具包,比如:numpy、pandas等

conda是一个开源的包、环境管理器,可以用于在同一个机器上安装不同版本的软件包及其依赖,并能够在不同的环境之间切换。

下载官网:Anaconda | The World’s Most Popular Data Science Platform
在这里插入图片描述
在这里插入图片描述
有的时候我们需要下载一些比较旧的版本的Anaconda,网址:旧版Anaconda存档地址

🥇2.2 安装Cuda及Cudnn
  • 🥇方法1:桌面右键打开nvidia控制面板

    点击左下角的系统信息

在这里插入图片描述

点击组件你可以看到你的电脑显卡支持的最高版本的cuda,比如我的显卡支持最高的cuda版本为11.7.99

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

🥇安装Pytorch

首先利用conda建立一个环境:conda create -n yolo7 python=3.9

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

进Pytorch官网:下载对应cuda版本的pytorch

在这里插入图片描述

这是cuda11.7对应的pytorch

conda install pytorch==2.0.1 torchvision==0.15.2 torchaudio==2.0.2 pytorch-cuda=11.7 -c pytorch -c nvidia

在这里插入图片描述

在这里插入图片描述

当出现了done表示Pytorch已经安装结束,下面测试一下是否安装成功

import torch
import torchvision

在这里插入图片描述

🥇三、数据集标注

🥇3.1安装labelimg

在命令行窗口中依次输入下列代码,安装labelimg依赖的第三方库。

pip install PyQt5

pip install pyqt5-tools

pip install lxml

pip install labelimg

在第三方库安装完成后,在命令行中输入labelimg指令以启动labelimg

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

🥇四、使用YOLOv7训练并测试自己的数据集

🥇4.1下载YOLOv7

YOLOv7官方下载地址:github中的官方下载地址

在这里插入图片描述

yolov7.pt下载地址:Releases · WongKinYiu/yolov7 · GitHub

安装yolov7所需要的依赖

activate yolo7


pip install -r requirements.txt

在这里插入图片描述
在这里插入图片描述

🥇4.2 测试代码是否能正常运行

在这里插入图片描述

官方给了几张图来进行测试我们选取其中的一张图进行测试

python detect.py --weights yolov7.pt --conf 0.25 --img-size 640 --source inference/images/horses.jpg

在这里插入图片描述

在这里插入图片描述

🥇4.3 准备我们自己的数据集

新建一个VOCdata的文件夹

在这里插入图片描述

VOCdata文件夹格式如下

在这里插入图片描述

  • Annotations文件夹存放xml标签文件

  • dataSet_path这个是xml转化为YOLO格式过后的训练集划分

  • images就是存放我们的数据集

  • labels是YOLO格式数据集(这是运行xml_to_yolo.py过后产生的YOLO格式标签)

大家只需要了解上面的存放只需要把你的数据集放在imges文件夹中,以及把xml标签在Annotations文件夹下

在这里插入图片描述

在VOCdata文件夹下新建一个split_train_val.py用来划分数据集

# coding:utf-8

import os
import random
import argparse

parser = argparse.ArgumentParser()
#xml文件的地址,根据自己的数据进行修改 xml一般存放在Annotations下
parser.add_argument('--xml_path', default='Annotations', type=str, help='input xml label path')
#数据集的划分,地址选择自己数据下的ImageSets/Main
parser.add_argument('--txt_path', default='ImageSets/Main', type=str, help='output txt label path')
opt = parser.parse_args()

trainval_percent = 0.9  # 训练集和验证集所占比例。 这里没有划分测试集
train_percent = 0.9     # 训练集所占比例,可自己进行调整
xmlfilepath = opt.xml_path
txtsavepath = opt.txt_path
total_xml = os.listdir(xmlfilepath)
if not os.path.exists(txtsavepath):
    os.makedirs(txtsavepath)

num = len(total_xml)
list_index = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list_index, tv)
train = random.sample(trainval, tr)

file_trainval = open(txtsavepath + '/trainval.txt', 'w')
file_test = open(txtsavepath + '/test.txt', 'w')
file_train = open(txtsavepath + '/train.txt', 'w')
file_val = open(txtsavepath + '/val.txt', 'w')

for i in list_index:
    name = total_xml[i][:-4] + '\n'
    if i in trainval:
        file_trainval.write(name)
        if i in train:
            file_train.write(name)
        else:
            file_val.write(name)
    else:
        file_test.write(name)

file_trainval.close()
file_train.close()
file_val.close()
file_test.close()

进入命令行窗口运行python split_train_val.py用来划分数据集

在这里插入图片描述

下面的图是划分数据集产生的txt文件

在这里插入图片描述

在VOCdata文件夹下新建一个xml_to_yolo.py将xml转化为txt

# -*- coding: utf-8 -*-
import xml.etree.ElementTree as ET
import os
from os import getcwd

sets = ['train', 'val', 'test']
classes = ['RBC', 'WBC', 'Platelets']    # 改成自己的类别
abs_path = os.getcwd()
print(abs_path)


def convert(size, box):
    dw = 1. / (size[0])
    dh = 1. / (size[1])
    x = (box[0] + box[1]) / 2.0 - 1
    y = (box[2] + box[3]) / 2.0 - 1
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x * dw
    w = w * dw
    y = y * dh
    h = h * dh
    return x, y, w, h


def convert_annotation(image_id):
    in_file = open('D:/yolov7-main/VOCdata/Annotations/%s.xml' % (image_id), encoding='UTF-8')
    out_file = open('D:/yolov7-main/VOCdata/labels/%s.txt' % (image_id), 'w')
    tree = ET.parse(in_file)
    root = tree.getroot()
    size = root.find('size')
    w = int(size.find('width').text)
    h = int(size.find('height').text)
    for obj in root.iter('object'):
        difficult = obj.find('difficult').text
        # difficult = obj.find('Difficult').text
        cls = obj.find('name').text
        if cls not in classes :
            continue
        cls_id = classes.index(cls)
        xmlbox = obj.find('bndbox')
        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
             float(xmlbox.find('ymax').text))
        b1, b2, b3, b4 = b
        # 标注越界修正
        if b2 > w:
            b2 = w
        if b4 > h:
            b4 = h
        b = (b1, b2, b3, b4)
        bb = convert((w, h), b)
        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')


wd = getcwd()
for image_set in sets:
    if not os.path.exists('D:/yolov7-main/VOCdata/labels/'):
        os.makedirs('D:/yolov7-main/VOCdata/labels/')
    image_ids = open('D:/yolov7-main/VOCdata/ImageSets/Main/%s.txt' % (image_set)).read().strip().split()

    if not os.path.exists('D:/yolov7-main/VOCdata/dataSet_path/'):
        os.makedirs('D:/yolov7-main/VOCdata/dataSet_path/')

    list_file = open('dataSet_path/%s.txt' % (image_set), 'w')
    # 这行路径不需更改,这是相对路径
    for image_id in image_ids:
        list_file.write('D:/yolov7-main/VOCdata/images/%s.jpg\n' % (image_id))
        convert_annotation(image_id)
    list_file.close()

运行xml_to_yolo.py,python xml_to_yolo.py
在这里插入图片描述
在这里插入图片描述

在data文件夹中新建一个myvoc.yaml
在这里插入图片描述

代码如下:

# train and val data as 1) directory: path/images/, 2) file: path/images.txt, or 3) list: [path1/images/, path2/images/]
train: D:/yolov7-main/VOCdata/dataSet_path/train.txt  # 118287 images
val: D:/yolov7-main/VOCdata/dataSet_path/val.txt  # 5000 images
test: D:/yolov7-main/VOCdata/dataSet_path/test.txt  # 20288 of 40670 images, submit to https://competitions.codalab.org/competitions/20794

# number of classes
nc: 1

# class names
names: ['野原新之助']

在这里插入图片描述
在这里插入图片描述

🥇4.4 训练模型并利用训练好的模型进行推断

解决这个就可以开始训练了

训练命令为:

python train.py --workers 8 --device 0 --batch-size 6  --epochs 100 --data data/myvoc.yaml --img 640 640 --cfg cfg/training/yolov7.yaml --weights  yolov7.pt --name yolov7 --hyp data/hyp.scratch.p5.yaml

在这里插入图片描述

推理命令为:

python detect.py --weights runs/train/yolov7/weights/best.pt --source inference/images/ --device 0

在这里插入图片描述

🥇注:这里需要你把你的图片放到inference/images文件夹下

推理的图片中文乱码

🥇五、一些常见报错

🥇5.1 UnicodeDecodeError: ‘gbk’ codec can’t decode type 0xaf in position 525: illegal multibyte sequence

在这里插入图片描述

原因是python和win10系统,打开文件时默认的编码方式冲突导致:python默认的是gbk,而win10默认的是utf-8,所以只要改一下python打开文件时,默认的编码就行,代码就在下面复制就行了。

with open(opt.data,'r',encoding='utf-8') as f:

在这里插入图片描述

🥇5.2 attributeerror: ‘FreeTypeFont‘ object has no attribute ‘getsize‘

这是因为安装了新版本的Pillow,新版本的删除了getsize功能 ,降级到 Pillow 9.5 解决了该问题

在这里插入图片描述

pip install Pillow==9.5
🥇5.3 ValueError: zero-size array to reduction operation maximum which has no identity

遇见这个报错是label问题,检查一下label生成的对不对

🥇5.4 中文标签乱码

opencv的cv2.putText()不支持中文,需要重写plots.py里的plot_one_box()函数

def plot_one_box(x, img, color=None, label=None, line_thickness=3):
    # Plots one bounding box on image img
    tl = line_thickness or round(0.002 * (img.shape[0] + img.shape[1]) / 2) + 1  # line/font thickness
    color = color or [random.randint(0, 255) for _ in range(3)]
    c1, c2 = (int(x[0]), int(x[1])), (int(x[2]), int(x[3]))
    cv2.rectangle(img, c1, c2, color, thickness=tl, lineType=cv2.LINE_AA)
    if label:
        tf = max(tl - 1, 1)  # font thickness
        t_size = cv2.getTextSize(label, 0, fontScale=tl / 3, thickness=tf)[0]
        font_size = t_size[1]
        font = ImageFont.truetype(r"D:\YOLOV7\yolov7-main\Font\simsun.ttc", font_size, encoding="utf-8")
        t_size = font.getsize(label)
        c2 = c1[0] + t_size[0], c1[1] - t_size[1]
        cv2.rectangle(img, c1, c2, color, -1, cv2.LINE_AA)  # filled
        img = Image.fromarray(cv2.cvtColor(img, cv2.COLOR_BGR2RGB))
        draw = ImageDraw.Draw(img)
        draw.text((c1[0], c2[1]), label, (0, 0, 0), font=font)
        # cv2.putText(img, label, (c1[0], c1[1] - 2), 0, tl / 3, [225, 255, 255], thickness=tf, lineType=cv2.LINE_AA)
        plt.imshow(img)
        plt.show()
        return cv2.cvtColor(np.array(img), cv2.COLOR_RGB2BGR)

在这里插入图片描述

为了保证多个标签时能都保存下来,需要将detect.py第117行im0 =plot_one_box(xyxy, im0, label=label, color=colors[int(cls)], line_thickness=3),plots.py文件第194行plot_one_box(box, mosaic, label=label, color=color, line_thickness=tl)改为mosaic = plot_one_box(box, mosaic, label=label, color=color, line_thickness=tl)

这样在进行推理就可以成功了在这里插入图片描述

🥇六、结语

鄙人不才,如有错误请帮忙指点出来,一路跌跌撞撞才写出这个博文,希望对大家有帮助

闲暇之余不妨看看万千世界,享受自然之韵,余亦钟之于此。

配上一幅秋日游玩图,不成敬意!

在这里插入图片描述

  • 31
    点赞
  • 83
    收藏
    觉得还不错? 一键收藏
  • 9
    评论
要使用YOLOv7训练自己的数据集,您需要执行以下步骤: 1. 准备数据集:首先,您需要准备一个包含训练图像和相应标注文件的数据集。标注文件应该是YOLO格式(.txt),每个文件对应于一个图像,并包含每个对象的类别和位置信息。 2. 下载YOLOv7代码:您需要从YOLOv7的GitHub存储库中下载代码。您可以使用以下命令克隆存储库: ``` git clone https://github.com/WongKinYiu/yolov7.git ``` 3. 配置YOLOv7:在下载代码后,您需要编辑“yolov7.cfg”文件来配置YOLOv7模型的参数,如类别数量和输入图像的大小等。 4. 转换数据集YOLOv7需要将数据集转换为Darknet格式,因此您需要使用提供的脚本将数据集转换为Darknet格式: ``` python3 train.py --img 640 --batch 16 --epochs 10 --data ./data/custom.data --cfg ./models/yolov7.cfg --weights yolov7.pt --name yolov7-custom ``` 其中,--data参数指定您的自定义数据集的路径,--cfg参数指定您的自定义配置文件,--weights参数指定预训练模型的路径,--name参数指定模型的名称。 5. 训练模型:使用以下命令开始训练模型: ``` python3 train.py --img 640 --batch 16 --epochs 10 --data ./data/custom.data --cfg ./models/yolov7.cfg --weights yolov7.pt --name yolov7-custom ``` 6. 测试模型:训练完成后,您可以使用以下命令对模型进行测试: ``` python3 detect.py --weights ./runs/train/yolov7-custom/weights/best.pt --img 640 --conf 0.5 --source ./data/samples/ ``` 其中,--weights参数指定训练好的模型的路径,--img参数指定输入图像的大小,--conf参数指定置信度阈值,--source参数指定要检测的图像文件夹。 希望这些步骤可以帮助您训练自己的YOLOv7模型。
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值