提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档
提示:以下是本篇文章正文内容,下面案例可供参考
一、YOLO的安装
1.在GitHub上下载源码:
https://github.com/ultralytics/yolov5/tree/v6.1
2.配置环境:
1.将下载好的压缩包保存至一个没有中文的路径下,点击打开PyCharm,点击open按钮,在路径中找到刚刚的源码保存路径,即可在PyCharm中打开项目。
⚠此时可能会跳出一个框,让你配置环境,先直接关掉。(我们后面再配置环境)
2.打开Anaconda,在左侧选择environments,点击下方create,我创建了一个新环境,命名为yolo5_test。(建议选择python3.9与yolov5适配)
3.打开Pycharm设置Preference
新建Python解释器的环境
4.系列库的安装
(1).打开终端,输入命令进入创建的Anaconda环境
conda activate yolov5_test
(yolov5_test是我创建的环境名,需换成你的)
(2).配置torch和torchvision
pip install torch==1.8.1 torchvision==0.9.1 torchaudio==0.8.1
(输入后会自动提示适合你的版本,根据提示更改版本号安装即可)
(3).对照requirements.txt 配置其他所需安装包
pip install -r requirements.txt
这里我失败了,于是分别安装
pip install numpy
pip install opencv-python
pip install matplotlib
pip install pillow
pip install PyYAM
pip install scipy
pip install tqdm
pip install requests
5.运行程序
基本测试需要运行detect.py
(这里我运行时出现了bug,发现还有一些包未安装,根据提示又安装了缺少的包)
最终在pycharm中运行结果如下
打开exp查看结果
二、用YOLO测试视频
1.测试下载视频
将视频放入yolov5-6.1/data/images/中,在pycharm中运行detect.py
打开yolov5-6.1/runs/detect/exp查看结果代码如下(示例):
2.用电脑自带摄像头实时监测
在detect文件最后找到此行代码
改为:
cd_argument('--source', type=str, default='0', help='source') # file/folder, 0 for webcam
同样打开yolov5-6.1/runs/detect/exp查看结果
三、训练自己的数据集
1.创建环境
创建一个新的anaconda环境
conda create -n tf python=3.9.18
(改成自己的python版本)
切换到tf环境(重新打开终端时要记得切到这个环境)
conda activate tf
(前面有(tf)则是转换成功)
2.安装macos版本的TensorFlow
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple/ tensorflow==2.6
3.pyqt5安装
法一
pip install pyqt5
(这里我失败了)
法二 安装homebrew
/usr/bin/ruby-e"$(curl-fsSLhttps://raw.githubusercontent.com/Homebrew/install/master/install)"
通过homebrew安装pyqt5
brew install pyqt5
4.安装torch和torchvision
pip install torch==1.7.1 torchvision==0.8.2 -f https://download.pytorch.org/whl/torch_stable.html -i https://pypi.tuna.tsinghua.edu.cn/simple/torch
5.安装labelimg
法一
pip install labelimg
这里我失败了
法二 进入labelimg的github地址https://github.com/HumanSignal/labelImg
打开终端输入cd 将labeling-master文件夹拖入
brew install qt
brew install libxml2
conda install lxml
make qt5py3
python labelImg.py
就可以用labelimg标注文件啦
在yolov5目录下新建一个名为VOCData的文件夹,在VOCData文件夹下创建 Annotations 和 images 文件夹。
images文件夹放要训练的图片
打开目录为images文件夹
更改存放目录为Annotions文件夹
标记图片快捷键:w:标记 a:上一张图片 d:下一张图片
标注的时候尽可能贴近物体轮廓
6.划分数据集以及配置文件修改
(1)划分训练集、验证集、测试集
在终端中打开images文件夹(根据自己路径找)
cd /Users/zhuoxiaohua/Documents/yolov5-6.1/VOCData/images
Is -a
rm .DS_Store
在macos下,文件夹内会生成.Ds_store隐藏文件要先删除
在VOCData目录下创建程序 split_train_val.py 并运行以下代码(代码可以不做任何修改)
#coding:utf-8
import os
import random
import argparse
parser = argparse.ArgumentParser()
#xml文件的地址,根据自己的数据进行修改 xml一般存放在Annotations下
parser.add_argument('--xml_path', default='Annotations', type=str, help='input xml label path')
#数据集的划分,地址选择自己数据下的ImageSets/Main
parser.add_argument('--txt_path', default='ImageSets/Main', type=str, help='output txt label path')
opt = parser.parse_args()
trainval_percent = 1.0 # 训练集和验证集所占比例。 这里没有划分测试集
train_percent = 0.9 # 训练集所占比例,可自己进行调整
xmlfilepath = opt.xml_path
txtsavepath = opt.txt_path
total_xml = os.listdir(xmlfilepath)
if not os.path.exists(txtsavepath):
os.makedirs(txtsavepath)
num = len(total_xml)
list_index = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list_index, tv)
train = random.sample(trainval, tr)
file_trainval = open(txtsavepath + '/trainval.txt', 'w')
file_test = open(txtsavepath + '/test.txt', 'w')
file_train = open(txtsavepath + '/train.txt', 'w')
file_val = open(txtsavepath + '/val.txt', 'w')
for i in list_index:
name = total_xml[i][:-4] + '\n'
if i in trainval:
file_trainval.write(name)
if i in train:
file_train.write(name)
else:
file_val.write(name)
else:
file_test.write(name)
file_trainval.close()
file_train.close()
file_val.close()
file_test.close()
运行结束后会在生成一个名为 ImageSets 的文件夹
[说明]:在第14,15行代码中
训练集是用来训练模型的,通过尝试不同的方法和思路使用训练集来训练不同的模型;
验证集使用交叉验证来挑选最优的模型,通过不断的迭代来改善模型在验证集上的性能;
测试集用来评估模型的性能。
(2)XML格式转yolo_txt格式
在VOCData目录下创建程序 xml_to_yolo.py 并运行以下代码
注意:将classes改为自己标注时设置的类名(我这里叫"code"),将各个绝对路径修改为自己的
#-*- coding: utf-8 -*-
import xml.etree.ElementTree as ET
import os
from os import getcwd
sets = ['train', 'val', 'test']
classes = ["code"] # 改成自己的类别
abs_path = os.getcwd()
print(abs_path)
def convert(size, box):
dw = 1. / (size[0])
dh = 1. / (size[1])
x = (box[0] + box[1]) / 2.0 - 1
y = (box[2] + box[3]) / 2.0 - 1
w = box[1] - box[0]
h = box[3] - box[2]
x = x * dw
w = w * dw
y = y * dh
h = h * dh
return x, y, w, h
def convert_annotation(image):
in_file = open('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/Annotations/%s.xml' % image, encoding='utf-8')
out_file = open('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/labels/%s.txt' % image, 'w')
tree = ET.parse(in_file)
root = tree.getroot()
size = root.find('size')
w = int(size.find('width').text)
h = int(size.find('height').text)
for obj in root.iter('object'):
difficult = obj.find('difficult').text
# difficult = obj.find('Difficult').text
cls = obj.find('name').text
if cls not in classes or int(difficult) == 1:
continue
cls_id = classes.index(cls)
xmlbox = obj.find('bndbox')
b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
float(xmlbox.find('ymax').text))
b1, b2, b3, b4 = b
# 标注越界修正
if b2 > w:
b2 = w
if b4 > h:
b4 = h
b = (b1, b2, b3, b4)
bb = convert((w, h), b)
out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
wd = getcwd()
for image_set in sets:
if not os.path.exists('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/labels/'):
os.makedirs('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/labels/')
image_ids = open(
'/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/ImageSets/Main/%s.txt' % image_set).read().strip().split()
if not os.path.exists('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/dataSet_path/'):
os.makedirs('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/dataSet_path/')
list_file = open('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/dataSet_path/%s.txt' % image_set, 'w')
for image_id in image_ids:
list_file.write('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/images/%s.jpeg\n' % image_id)
convert_annotation(image_id)
list_file.close()
运行后会生成dataSet_path 和 labels 文件夹。dataSet_path下会有三个数据集的txt文件,labels下存放各个图像的标注文件。
(3)配置文件
在 yolov5 的 data 文件夹下创建一个名为 myvoc.yaml,模板如下,改成自己的路径,根据自己实际情况填写:
(【🎯易错】:注意冒号后面是有空格的)
train: /Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/dataSet_path/train.txt
val: /Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/dataSet_path/val.txt
#number of classes
nc: 1
#class names
names: ["code"]
(4)聚类获得先验框
在 models 文件夹下找到 yolov5s.yaml(如果使用这个权重模型训练的话),将其中的 nc 改为实际上标注类的数量,和 myvoc.yaml 一样。
(5)打开pycharm 找到train.py开始训练
期间我遇到了不少bug
- numpy has no attribute int.
删除numpy1.20.3原先版本
pip uninstall numpy
重新下载
pip install numpy==1.22.0 -i https://pypi.tuna.tsinghua.edu.cn/simple/
将报错代码中的int改为int_
- RuntimeError: DataLoader worker (pid(s) 2516, 1768) exited unexpectedly
将此行default改为0 - RuntimeError: result type Float can’t be cast to the desired output type long long
将yolov5-6.1\utils\loss.py的第211行
由
indices.append((b, a, gj.clamp_(0, gain[3] - 1), gi.clamp_(0, gain[2] - 1))) # image, anchor, grid indices
改为
indices.append((b, a, gj.clamp(0, int(gain[3]) - 1), gi.clamp(0, int(gain[2]) - 1))) # image, anchor, grid indices
重新运行train.py成功