目录
1.下载yolov7源码
去github上打包下载,下载地址:
WongKinYiu/yolov7: Implementation of paper - YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors (github.com)
如果github打不开可以去这里下载:项目目录预览 - yolov7 - GitCode
也可以使用git clone命令克隆项目。
git clone https://github.com/WongKinYiu/yolov7
2.下载权重文件
在readme文件里点击以下蓝色字体就会下载:
下载好之后直接放在yolov7源码的根目录就行了:
3.制作yolo数据集
首先在项目根目录创建如下所示的文件目录(名字可变,名字变了代码中路径也要变):
然后将自己的图片文件放到JPEGImages文件夹中,将xml文件放到Annotations文件夹中,
接着使用脚本split_train_val.py进行数据集的划分,在Main文件夹中生成以下3个txt文件,分别对应测试集、训练集和验证集:
split_train_val.py代码如下:
import os
import random
import argparse
parser = argparse.ArgumentParser()
# xml文件的地址,根据自己的数据进行修改 xml一般存放在Annotations下
parser.add_argument('--xml_path', default='VOCdevkit/VOC2007/Annotations', type=str, help='input xml label path')
# 数据集的划分,地址选择自己数据下的ImageSets/Main
parser.add_argument('--txt_path', default='VOCdevkit/VOC2007/ImageSets/Main', type=str, help='output txt label path')
opt = parser.parse_args()
train_percent = 0.8 # 训练集所占比例
val_percent = 0.1 # 验证集所占比例
test_persent = 0.1 # 测试集所占比例
xmlfilepath = opt.xml_path
txtsavepath = opt.txt_path
total_xml = os.listdir(xmlfilepath)
if not os.path.exists(txtsavepath):
os.makedirs(txtsavepath)
num = len(total_xml)
list = list(range(num))
t_train = int(num * train_percent)
t_val = int(num * val_percent)
train = random.sample(list, t_train)
num1 = len(train)
for i in range(num1):
list.remove(train[i])
val_test = [i for i in list if not i in train]
val = random.sample(val_test, t_val)
num2 = len(val)
for i in range(num2):
list.remove(val[i])
file_train = open(txtsavepath + '/train.txt', 'w')
file_val = open(txtsavepath + '/val.txt', 'w')
file_test = open(txtsavepath + '/test.txt', 'w')
for i in train:
name = total_xml[i][:-4] + '\n'
file_train.write(name)
for i in val:
name = total_xml[i][:-4] + '\n'
file_val.write(name)
for i in list:
name = total_xml[i][:-4] + '\n'
file_test.write(name)
file_train.close()
file_val.close()
file_test.close()
最后将标签转换成yolo格式,运行脚本voc_label.py,会在VOC2007目录下生成新的labels文件夹,里边存放每个图片对应xml标注信息的txt格式信息:
同时在VOC2007目录下生成训练集、测试集和验证集的图片路径索引的txt文件:
每个txt文件里面存放的图片的文件名全路径:
脚本voc_label.py代码如下:
import xml.etree.ElementTree as ET
import os
sets = ['train', 'val', 'test'] # 如果你的Main文件夹没有test.txt,就删掉'test'
classes = ["a", "b"] # 改成自己的类别
abs_path = os.getcwd()
def convert(size, box):
dw = 1. / (size[0])
dh = 1. / (size[1])
x = (box[0] + box[1]) / 2.0 - 1
y = (box[2] + box[3]) / 2.0 - 1
w = box[1] - box[0]
h = box[3] - box[2]
x = x * dw
w = w * dw
y = y * dh
h = h * dh
return x, y, w, h
def convert_annotation(image_id):
in_file = open(abs_path + '/VOCdevkit/VOC2007/Annotations/%s.xml' % (image_id), encoding='UTF-8')
out_file = open(abs_path + '/VOCdevkit/VOC2007/labels/%s.txt' % (image_id), 'w')
tree = ET.parse(in_file)
root = tree.getroot()
size = root.find('size')
w = int(size.find('width').text)
h = int(size.find('height').text)
for obj in root.iter('object'):
difficult = obj.find('difficult').text
# difficult = obj.find('Difficult').text
cls = obj.find('name').text
if cls not in classes or int(difficult) == 1:
continue
cls_id = classes.index(cls)
xmlbox = obj.find('bndbox')
b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
float(xmlbox.find('ymax').text))
b1, b2, b3, b4 = b
# 标注越界修正
if b2 > w:
b2 = w
if b4 > h:
b4 = h
b = (b1, b2, b3, b4)
bb = convert((w, h), b)
out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
for image_set in sets:
if not os.path.exists(abs_path + '/VOCdevkit/VOC2007/labels/'):
os.makedirs(abs_path + '/VOCdevkit/VOC2007/labels/')
image_ids = open(abs_path + '/VOCdevkit/VOC2007/ImageSets/Main/%s.txt' % (image_set)).read().strip().split()
list_file = open(abs_path + '/VOCdevkit/VOC2007/%s.txt' % (image_set), 'w')
for image_id in image_ids:
list_file.write(abs_path + '/VOCdevkit/VOC2007/JPEGImages/%s.jpg\n' % (image_id)) # 要么自己补全路径,只写一半可能会报错
convert_annotation(image_id)
list_file.close()
4.训练前的准备工作
首先创建一个数据集配置文件,可以直接复制data目录下的coco.yaml文件然后重命名为mydata.yaml(名字自己取,后边要对应起来):
打开这个文件,修改内容:
然后修改模型配置文件yolov7.yaml(用哪个就修改哪个),在cfg/training下(注意不是cfg/deploy),只需要改变类别个数就行:
做完以上步骤,若直接开始训练,会报错:
AssertionError: train: No labels in 2007_train.cache. Can not train without labels
解决方法:
找到utils/datasets.py文件,ctrl+f 搜索框搜索Define label,将下图红色框中内容修改为“JPEGImages”(跟你定义的存放图片的名字一致)。原本yolov7代码这里是“images”,需要修改方能正确读取图片。
5.训练
根据需要修改trian.py,选择预训练权重(我用的是yolov7_training.pt,yolov7.pt也行),cfg是模型配置文件,也就是我们之前修改的yolov7.yaml文件,data是数据集配置文件,也就是我们自己制作的mydata.yaml,epochs根据自己情况设置;batch-size需要显存,显存小就设置低点。
device选择0,使用gpu0训练,workers是线程数,根据自己的电脑设置,虚拟内存小的可以设置小一些,否则可能会报“OSError: [WinError 1455]页面文件太小,无法完成操作。”的错误。
做完这些就可以开始训练了。
6.测试
训练结束后,可以进行。训练结束会生成两个权重文件一个是最好权重best.pt,一个是最后一轮迭代的权重文件last.pt:
我们使用best.pt进行测试,需要修改detect.py:
另外,为了防止画不出矩形框的情况,需要修改:(1650不修改可能会出现问题)
测试结果如下: