最近要用到yolov5,所以记录一下。
yolov5有4中结构,分别是yolov5s,yolov5m,yolov5l,yolov5x。
从前往后精度与训练时间递增。网络模型深度与宽度逐渐加深加宽。
所用的软件安装
首先下载Anaconda,Anaconda官网:https://www.anaconda.com/
下载直接按照步骤安装即可,需要注意的是要在下图位置把环境变量勾选上。具体的步骤可以看看anaconda的安装教程。
安装完可以在cmd中输入 conda -V,出现版本号证明环境变量配置成功了。之后就可以安装自己的torch虚拟环境了。
在cmd输入conda create -n mtorch python=3.8。【这里面mtorch是自己定义的虚拟环境的名称(之后可以敲命令输入这个名字直接进入到这个虚拟环境中)python的版本号可以在下载的yolov5的文件夹下的requirements.txt确认一下。】
运行后在输入选项处输入y
安装成功后输入activate mtorch就可以激活环境了。
安装pytorch
yolov5最新版本需要pytorch1.7版本以上,CUDA10.1,输入:
pip install torch==1.7.0+cu101 torchvision==0.8.1+cu101 torchaudio===0.7.0 -f https://download.pytorch.org/whl/torch_stable.html
之后下载yolov5 . 地址: https://github.com/ultralytics/yolov5
在文件夹下运行cmd,激活虚拟环境。
安装所需要的依赖项
pip install -r requirements.txt
labelimg
数据标注我们用labelimg,可以在cmd中下载,速度较慢
pip install labelimg
在官网下载yolov5 https://github.com/ultralytics/yolov5
制作自己的数据集
在YOLOv5目录下创建paper_data文件夹(名字可以自定义),,将之前labelImg标注好的xml文件和图片放到对应目录下
images 存放图片;
Annotations 存放xml文件;
ImageSets之后会自动生成train.txt,val.txt,test.txt和trainval.txt四个文件,存放训练集、验证集、测试集图片的名字
paper_data 文件夹下面存放训练集、验证集、测试集的划分,通过脚本生成,可以创建一个splitdata.py文件,代码内容如下:
# coding:utf-8
import os
import random
import argparse
parser = argparse.ArgumentParser()
#xml文件的地址,根据自己的数据进行修改 xml一般存放在Annotations下
parser.add_argument('--xml_path', default='paper_data/Annotations', type=str, help='input xml label path')
#数据集的划分,地址选择自己数据下的ImageSets
parser.add_argument('--txt_path', default='paper_data/ImageSets', type=str, help='output txt label path')
opt = parser.parse_args()
trainval_percent = 1.0
train_percent = 0.9
xmlfilepath = opt.xml_path
txtsavepath = opt.txt_path
total_xml = os.listdir(xmlfilepath)
if not os.path.exists(txtsavepath):
os.makedirs(txtsavepath)
num = len(total_xml)
list_index = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list_index, tv)
train = random.sample(trainval, tr)
file_trainval = open(txtsavepath + '/trainval.txt', 'w')
file_test = open(txtsavepath + '/test.txt', 'w')
file_train = open(txtsavepath + '/train.txt', 'w')
file_val = open(txtsavepath + '/val.txt', 'w')
for i in list_index:
name = total_xml[i][:-4] + '\n'
if i in trainval:
file_trainval.write(name)
if i in train:
file_train.write(name)
else:
file_val.write(name)
else:
file_test.write(name)
file_trainval.close()
file_train.close()
file_val.close()
file_test.close()
之后我们要准备使用的labels了,把数据集格式转换成yolo_txt格式,即将每个xml标注提取bbox信息为txt格式,每个图像对应一个txt文件,文件每一行为一个目标的信息,包括class, x_center, y_center, width, height格式。
创建voc_label.py文件,将训练集、验证集、测试集生成label标签(训练中要用到),同时将数据集路径导入txt文件中,代码内容如下:
# -*- coding: utf-8 -*-
import xml.etree.ElementTree as ET
from tqdm import tqdm
import os
from os import getcwd
sets = ['train', 'val', 'test']
classes = ['cnum']
def convert(size, box):
dw = 1. / (size[0])
dh = 1. / (size[1])
x = (box[0] + box[1]) / 2.0 - 1
y = (box[2] + box[3]) / 2.0 - 1
w = box[1] - box[0]
h = box[3] - box[2]
x = x * dw
w = w * dw
y = y * dh
h = h * dh
return x, y, w, h
def convert_annotation(image_id):
# try:
in_file = open('paper_data/Annotations/%s.xml' % (image_id), encoding='utf-8')
out_file = open('paper_data/labels/%s.txt' % (image_id), 'w', encoding='utf-8')
tree = ET.parse(in_file)
root = tree.getroot()
size = root.find('size')
w = int(size.find('width').text)
h = int(size.find('height').text)
for obj in root.iter('object'):
difficult = obj.find('difficult').text
cls = obj.find('name').text
if cls not in classes or int(difficult) == 1:
continue
cls_id = classes.index(cls)
xmlbox = obj.find('bndbox')
b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
float(xmlbox.find('ymax').text))
b1, b2, b3, b4 = b
# 标注越界修正
if b2 > w:
b2 = w
if b4 > h:
b4 = h
b = (b1, b2, b3, b4)
bb = convert((w, h), b)
out_file.write(str(cls_id) + " " +
" ".join([str(a) for a in bb]) + '\n')
# except Exception as e:
# print(e, image_id)
wd = getcwd()
for image_set in sets:
if not os.path.exists('paper_data/labels/'):
os.makedirs('paper_data/labels/')
image_ids = open('paper_data/ImageSets/%s.txt' %
(image_set)).read().strip().split()
list_file = open('paper_data/%s.txt' % (image_set), 'w')
for image_id in tqdm(image_ids):
list_file.write('paper_data/images/%s.jpg\n' % (image_id))
convert_annotation(image_id)
list_file.close()
之后要进行对自己的数据集的配置文件
1)数据集的配置
在yolov5目录下的data文件夹下新建一个myvoc.yaml文件(可以自定义命名),用来存放训练集和验证集的划分文件(train.txt和val.txt),这两个文件是通过运行voc_label.py代码生成的,然后是目标的类别数目和具体类别列表,myvoc.yaml内容如下:
train: paper_data/train.txt
val: paper_data/val.txt
# number of classes
nc: 1
# class names
names: ["cnum"]
其中 nc 为你要识别的目标数量
names为目标名称
2) 选择一个你需要的模型
在yolov5目录下的model文件夹下是模型的配置文件,这边提供s、m、l、x版本,逐渐增大(随着架构的增大,训练时间也是逐渐增大),四个文件都只用修改一个参数即把nc改成自己的类别数,需要取整(可选) 。
模型训练
1、下载预训练模型
在YOLOv5的GitHub开源网址上下载对应版本的模型
我下载完之后是在yolov5目录下新建另外一个weights目录来存放模型。
2、训练
在正式开始训练之前,需要对train.py进行修改。之后就可以进行训练了。
(小提示:是在文件目录下打开cmd命令行激活你的虚拟环境)
更详细的
刚接触,看了别人的文章,有成果了,记录一下,详细的可以看看这个。
链接: link.