v5和v4差不多,v5更加完善,兼容性更好,一直在维护yolov5下载下来是这样的文件夹
1.修改data
下载数据集是
数据集弄成这样的格式
重要的就是下面三个
train:训练集图片和标注信息
valid:验证集图片和标注信息。每训练一段就会验证一下
data.yaml:配置文件
训练集和验证集的路径
类别个数和分别是什么
我们用yolov5来进行检测,yolov5的标注信息要求是txt格式,而下载下来的数据集标注信息是xml格式。
需要脚本把 xml 转为 txt格式
import xml.etree.ElementTree as ET
import pickle
import os
from os import listdir, getcwd
from os.path import join
import glob
classes = ["crazing", "inclusion", "patches", "pitted_surface", "rolled-in_scale", "scratches"]
def convert(size, box):
dw = 1./size[0]
dh = 1./size[1]
x = (box[0] + box[1])/2.0
y = (box[2] + box[3])/2.0
w = box[1] - box[0]
h = box[3] - box[2]
x = x*dw
w = w*dw
y = y*dh
h = h*dh
return (x,y,w,h)
def convert_annotation(image_name):
in_file = open('./ANNOTATIONS/'+image_name[:-3]+'xml')
out_file = open('./LABELS/'+image_name[:-3]+'txt','w')
tree=ET.parse(in_file)
root = tree.getroot()
size = root.find('size')
w = int(size.find('width').text)
h = int(size.find('height').text)
for obj in root.iter('object'):
cls = obj.find('name').text
if cls not in classes:
print(cls)
continue
cls_id = classes.index(cls)
xmlbox = obj.find('bndbox')
b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text), float(xmlbox.find('ymax').text))
bb = convert((w,h), b)
out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
wd = getcwd()
if __name__ == '__main__':
for image_path in glob.glob("./IMAGES/*.jpg"):
image_name = image_path.split('\\')[-1]
#print(image_path)
convert_annotation(image_name)
train.py
需要更改三个参数
更改1配置文件的路径yaml
更改2(选择model),机器不行就选5S
更改3,选择合适的batch大小
每轮训练完就会生成日志文件在runs中
model.py
选择你的模型 s,x , l
不同模型大小差别不大,但是参数权重有区别
模型配置文件长这样
depth表示网络深度,如果一个网络a层,则实际模型层数只有a*depth层
width表示特征图深度,如果经过一层卷积特征图c层,实际c*width
runs
里面是每次运行的日志文件
长这样
weight是保存最好的一次权重和最后一次参数权重
labels:统计标签的分布
result:记录了多次epoch的结果
detect.py
用来测试的代码
有四个参数
1.测试图片的路径。(可以是一张图片.jpg,也可以是一个视频.mp4)
2.选择权重,哪一次训练的权重。加载pt文件
3.输出的图片放在哪
4.置信度,置信度大于这个阈值的才要