使用官方yolov7训练自定义VOC格式的数据集

本文详细介绍了如何从下载YOLOv7源码,获取权重,制作VOC数据集,进行训练前准备,直至最终的训练和测试过程。包括下载链接,数据集划分脚本和必要的配置文件修改等关键步骤。
摘要由CSDN通过智能技术生成

目录

1.下载yolov7源码

2.下载权重文件

3.制作yolo数据集

4.训练前的准备工作

5.训练

6.测试


1.下载yolov7源码

去github上打包下载,下载地址:
WongKinYiu/yolov7: Implementation of paper - YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors (github.com)

如果github打不开可以去这里下载:项目目录预览 - yolov7 - GitCode

也可以使用git clone命令克隆项目。

git clone https://github.com/WongKinYiu/yolov7

2.下载权重文件

在readme文件里点击以下蓝色字体就会下载:

下载好之后直接放在yolov7源码的根目录就行了:

3.制作yolo数据集

首先在项目根目录创建如下所示的文件目录(名字可变,名字变了代码中路径也要变):

然后将自己的图片文件放到JPEGImages文件夹中,将xml文件放到Annotations文件夹中,

接着使用脚本split_train_val.py进行数据集的划分,在Main文件夹中生成以下3个txt文件,分别对应测试集、训练集和验证集:

 split_train_val.py代码如下:

import os
import random
import argparse

parser = argparse.ArgumentParser()
# xml文件的地址,根据自己的数据进行修改 xml一般存放在Annotations下
parser.add_argument('--xml_path', default='VOCdevkit/VOC2007/Annotations', type=str, help='input xml label path')
# 数据集的划分,地址选择自己数据下的ImageSets/Main
parser.add_argument('--txt_path', default='VOCdevkit/VOC2007/ImageSets/Main', type=str, help='output txt label path')
opt = parser.parse_args()

train_percent = 0.8  # 训练集所占比例
val_percent = 0.1  # 验证集所占比例
test_persent = 0.1  # 测试集所占比例

xmlfilepath = opt.xml_path
txtsavepath = opt.txt_path
total_xml = os.listdir(xmlfilepath)

if not os.path.exists(txtsavepath):
    os.makedirs(txtsavepath)

num = len(total_xml)
list = list(range(num))

t_train = int(num * train_percent)
t_val = int(num * val_percent)

train = random.sample(list, t_train)
num1 = len(train)
for i in range(num1):
    list.remove(train[i])

val_test = [i for i in list if not i in train]
val = random.sample(val_test, t_val)
num2 = len(val)
for i in range(num2):
    list.remove(val[i])

file_train = open(txtsavepath + '/train.txt', 'w')
file_val = open(txtsavepath + '/val.txt', 'w')
file_test = open(txtsavepath + '/test.txt', 'w')

for i in train:
    name = total_xml[i][:-4] + '\n'
    file_train.write(name)

for i in val:
    name = total_xml[i][:-4] + '\n'
    file_val.write(name)

for i in list:
    name = total_xml[i][:-4] + '\n'
    file_test.write(name)

file_train.close()
file_val.close()
file_test.close()

最后将标签转换成yolo格式,运行脚本voc_label.py,会在VOC2007目录下生成新的labels文件夹,里边存放每个图片对应xml标注信息的txt格式信息:

同时在VOC2007目录下生成训练集、测试集和验证集的图片路径索引的txt文件:

每个txt文件里面存放的图片的文件名全路径:

脚本voc_label.py代码如下:

import xml.etree.ElementTree as ET
import os

sets = ['train', 'val', 'test']  # 如果你的Main文件夹没有test.txt,就删掉'test'
classes = ["a", "b"]   # 改成自己的类别

abs_path = os.getcwd()


def convert(size, box):
    dw = 1. / (size[0])
    dh = 1. / (size[1])
    x = (box[0] + box[1]) / 2.0 - 1
    y = (box[2] + box[3]) / 2.0 - 1
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x * dw
    w = w * dw
    y = y * dh
    h = h * dh
    return x, y, w, h


def convert_annotation(image_id):
    in_file = open(abs_path + '/VOCdevkit/VOC2007/Annotations/%s.xml' % (image_id), encoding='UTF-8')
    out_file = open(abs_path + '/VOCdevkit/VOC2007/labels/%s.txt' % (image_id), 'w')
    tree = ET.parse(in_file)
    root = tree.getroot()
    size = root.find('size')
    w = int(size.find('width').text)
    h = int(size.find('height').text)
    for obj in root.iter('object'):
        difficult = obj.find('difficult').text
        # difficult = obj.find('Difficult').text
        cls = obj.find('name').text
        if cls not in classes or int(difficult) == 1:
            continue
        cls_id = classes.index(cls)
        xmlbox = obj.find('bndbox')
        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
             float(xmlbox.find('ymax').text))
        b1, b2, b3, b4 = b
        # 标注越界修正
        if b2 > w:
            b2 = w
        if b4 > h:
            b4 = h
        b = (b1, b2, b3, b4)
        bb = convert((w, h), b)
        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')


for image_set in sets:
    if not os.path.exists(abs_path + '/VOCdevkit/VOC2007/labels/'):
        os.makedirs(abs_path + '/VOCdevkit/VOC2007/labels/')

    image_ids = open(abs_path + '/VOCdevkit/VOC2007/ImageSets/Main/%s.txt' % (image_set)).read().strip().split()
    list_file = open(abs_path + '/VOCdevkit/VOC2007/%s.txt' % (image_set), 'w')
    for image_id in image_ids:
        list_file.write(abs_path + '/VOCdevkit/VOC2007/JPEGImages/%s.jpg\n' % (image_id))  # 要么自己补全路径,只写一半可能会报错
        convert_annotation(image_id)
    list_file.close()

4.训练前的准备工作

首先创建一个数据集配置文件,可以直接复制data目录下的coco.yaml文件然后重命名为mydata.yaml(名字自己取,后边要对应起来):

打开这个文件,修改内容:

然后修改模型配置文件yolov7.yaml(用哪个就修改哪个),在cfg/training下(注意不是cfg/deploy),只需要改变类别个数就行:

做完以上步骤,若直接开始训练,会报错:

AssertionError: train: No labels in 2007_train.cache. Can not train without labels

解决方法:

找到utils/datasets.py文件,ctrl+f 搜索框搜索Define label,将下图红色框中内容修改为“JPEGImages”(跟你定义的存放图片的名字一致)。原本yolov7代码这里是“images”,需要修改方能正确读取图片。

5.训练

根据需要修改trian.py,选择预训练权重(我用的是yolov7_training.pt,yolov7.pt也行),cfg是模型配置文件,也就是我们之前修改的yolov7.yaml文件,data是数据集配置文件,也就是我们自己制作的mydata.yaml,epochs根据自己情况设置;batch-size需要显存,显存小就设置低点。

device选择0,使用gpu0训练,workers是线程数,根据自己的电脑设置,虚拟内存小的可以设置小一些,否则可能会报“OSError: [WinError 1455]页面文件太小,无法完成操作。”的错误。

做完这些就可以开始训练了。

6.测试

训练结束后,可以进行。训练结束会生成两个权重文件一个是最好权重best.pt,一个是最后一轮迭代的权重文件last.pt:

我们使用best.pt进行测试,需要修改detect.py:

另外,为了防止画不出矩形框的情况,需要修改:(1650不修改可能会出现问题)

测试结果如下:

  • 26
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值