准备工作
系统:window10
CUDA:10.1
CUDNN:7.4
python:3.7
opencv-python>=4.1.2
pytorch>=1.7.0
安装教程网上一大堆,不再赘述,CUDA和CUDNN下载链接可在我的另一篇博客中直接引用:https://blog.csdn.net/yohnyang/article/details/123958642
1.环境配置
1.1查看已安装环境
conda env list
若想新建环境,可通过以下指令:
conda create -n yolov5 python=3.8
激活环境
conda activate yolov5
1.2 torch安装
到pytorch官网:https://pytorch.org/下载torch_cuda版:
直接复制以下命令!,然后换源安装->速度挺快的!
#pip install torch==1.8.1+cu102 torchvision==0.9.1+cu102 torchaudio===0.8.0
#-f https://download.pytorch.org/whl/torch_stable.html
*******************************************************************************
#亲测过了,安装1.8总报错,用下边版本吧
pip install torch==1.7.0+cu101 torchvision==0.8.1+cu101 torchaudio===0.7.0
-f https://download.pytorch.org/whl/torch_stable.html
输入下面的命令可直接永久设置为清华源,换了吧,反正没啥坏处!
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
安装好之后进行如下操作:
pip install --upgrade numpy #更新numpy
#输入:
>>>python
>>>import torch as t
>>>t.__version__
#查看是否可用
>>>import torch as t
>>>t.cuda.is_available
2.源码下载与测试
在GitHub上下载源码:yolov5-master —> https://github.com/ultralytics/yolov5
2.1下载依赖包
在环境中安装requirements.txt文件中的包:
如果遇到以上因解码出现的警告,则电脑左下角搜索栏输入:更改国家或地区->语言->管理语言设置
->更改系统区域设置->UTF-8勾选->确定
然后重新下载!成功解决!
2.2 下载官方权重
- 作者在GitHub中给出了他们训练出来的权重文件:权重文件 – https://github.com/ultralytics/yolov5/releases
- 找不到用这个:https://github.com/ultralytics/yolov5/releases/tag/v5.0
- 并给出了各种权重文件的检测效果,我们可以随意下载。
在yolov5目录下新建weights文件夹,将下载好的权重放在里边
2.3 测试yolov5n
运行相应权重的模型----,成功后显示如下:
F:\Deeplearning\yolov5-master>conda activate yolov5
(yolov5) F:\Deeplearning\yolov5-master>python detect.py --source ./data/images/ --weights ./weights/yolov5n.pt --conf 0.4
查看检测结果:在yolov5-master目录下会生成一个新的文件夹runs,检测结果在.\yolov5-master\runs\detect\exp
3.训练自己数据集
3.1 数据集准备
我的操作是新建一个mytrain文件夹,将label标定好的 .xml 放到了 xmls 中,然后再另建一个新文件夹存放转换后的 .txt 文件,具体如下:
修改对应的路径,通过下边的demo将.xml转换为.txt
import xml.etree.ElementTree as ET
import pickle
import os
from os import listdir, getcwd
from os.path import join
def convert(size, box):
x_center = (box[0] + box[1]) / 2.0
y_center = (box[2] + box[3]) / 2.0
x = x_center / size[0]
y = y_center / size[1]
w = (box[1] - box[0]) / size[0]
h = (box[3] - box[2]) / size[1]
return (x, y, w, h)
def convert_annotation(xml_files_path, save_txt_files_path, classes):
xml_files = os.listdir(xml_files_path)
print(xml_files)
for xml_name in xml_files:
print(xml_name)
xml_file = os.path.join(xml_files_path, xml_name)
out_txt_path = os.path.join(save_txt_files_path, xml_name.split('.')[0] + '.txt')
out_txt_f = open(out_txt_path, 'w')
tree = ET.parse(xml_file)
root = tree.getroot()
size = root.find('size')
w = int(size.find('width').text)
h = int(size.find('height').text)
for obj in root.iter('object'):
difficult = obj.find('difficult').text
cls = obj.find('name').text
if cls not in classes or int(difficult) == 1:
continue
cls_id = classes.index(cls)
xmlbox = obj.find('bndbox')
b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
float(xmlbox.find('ymax').text))
# b=(xmin, xmax, ymin, ymax)
print(w, h, b)
bb = convert((w, h), b)
out_txt_f.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
if __name__ == "__main__":
classes = ['person', 'face','hand','garb','larwas','conwas','foowas','recyc'] #8类
# 1、voc格式的xml标签文件路径
xml_files1 = r'F:\Deeplearning\yolov5-master\mytrain\xmls'
# 2、转化为yolo格式的txt标签文件存储路径
save_txt_files1 = r'F:\Deeplearning\yolov5-master\mytrain\labels'
convert_annotation(xml_files1, save_txt_files1, classes)
然后需要手动分割训练集与测试集,自动实现也可以,详见我的另一篇博客YOLOV5算法二之数据集转换及自动划分训练集与测试集,求赞哈哈!
images存放 .jpg 格式的训练图像(800张)与测试图像(100张)
labels存放对应的 .txt 格式的标签文件 训练(800)与测试(100)
3.2 修改配置文件
首先,在data中复制一份VOC.yaml,重命名为自己的文件,我的是garbage.yaml,修改路径和类别,其他可以注释掉,具体如下:
计划通过yolov5s进行训练,所以需要修改对应文件的类别数目,具体如下:
再然后,将train.py也复制一份,参照下图修改对应的参数配置,具体如下:
3.3 开始训练
我后边将工程通过pycharm打开了,所以直接在train_gar文件中右键运行即可开始训练,训练过程如下:
有生成的文件保存到了下边路径,但还没具体弄清楚是什么,就酱吧
3.4 新模型测试
模型的区别主要是权重,如果想用自己训练后的模型进行检测效果测试,将上边weights文件中的best.pt复制,然后替换掉开始设置的yolov5s.pt,再次运行detect.py即可。