yolov5的安装以及训练模型的基本操作

一,介绍及背景 

YOLO系列是非常优秀的物体检测框架,目前总共有V1-V5五个版本。本博客的目的在于教大家如何使用YOLOv5训练自己的数据,重点在于应用。有关原理我会在后面的博客中详细介绍。使用YOLOv5训练自己的数据往往要经过以下几个步骤

 二,简单的步骤操作

没有下载可以点击下列链接查看教程并下载(跟详细的博客)

 https://blog.csdn.net/qq_43078154/article/details/119865421?spm=1001.2014.3001.5501

一,下载yolov5

进入到GitHub 上下载yolov5  GitHub是外网所以会有访问不上的问题,多试几次就能解决)

github.com   这是GitHub的官 

 进去之后在搜索框内输入yolov5 master 点击第一个下载下来即可

三.  数据标注

 

能够打开到这样的界面即可  点击yolov5

首先准备自己的数据集,然后进行标注。首先将所有要打标签的图片存放在data下面的images文件夹中,(这点比较重要,千万注意路径images文件夹一定要放在data下面,如果放在外面那需要修改split.py文件中的路径。并且,要标注的图片直接放在images文件夹下)具体如下图所示:

然后在工程中的data文件夹下新建两个文件夹,分别为dataset、labels。其中,datasets主要用来存放打好标签后的数据集,labels主要用来存放数据标签。具体如下图所示

 

然后打开我们的 anaconda powershell prompt 

如图:

输入 :pip install labeling  

如图:

打开labelimg

 接下来,我们首先需要对labelimg进行一些设置:首先选择自动保存模型,然后再选择改变保存路径,最后打开图片文件进行数据的标注。具体操作如下面几张图所示:

最后打上标签

对所有的图片都进行打标签,最后可以在dataset文件夹中,看到我们打好标签的xml文件。具体如下图所示: 

 

 这样就完成了数据标注

四,数据预处理 

用pychar打开yolov5

将yolov5 移动到pychar上打开

接下来需要对标注好的数据进行预处理操作,首先在工程目录文件下新建split.py程序,具体如下所示:

 split.py文件代码如下:

import os
import random
import argparse
parser = argparse.ArgumentParser()
parser.add_argument('--xml_path', default='data/dataset', type=str, help='input xml label path')
parser.add_argument('--txt_path', default='data/labels', type=str, help='output txt label path')
opt = parser.parse_args()
trainval_percent = 1.0
train_percent = 0.8
xmlfilepath = opt.xml_path
txtsavepath = opt.txt_path
total_xml = os.listdir(xmlfilepath)
if not os.path.exists(txtsavepath):
    os.makedirs(txtsavepath)
num = len(total_xml)
list_index = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list_index, tv)
train = random.sample(trainval, tr)
file_trainval = open(txtsavepath + '/trainval.txt', 'w')
file_test = open(txtsavepath + '/test.txt', 'w')
file_train = open(txtsavepath + '/train.txt', 'w')
file_val = open(txtsavepath + '/val.txt', 'w')
for i in list_index:
    name = total_xml[i][:-4] + '\n'
    if i in trainval:
        file_trainval.write(name)
        if i in train:
            file_train.write(name)
        else:
            file_val.write(name)
    else:
        file_test.write(name)
file_trainval.close()
file_train.close()
file_val.close()
file_test.close()

然后运行此代码,运行完成后的结果如下图所示:

然后以同样的方式再创建xml_to_txt.py文件并运行,具体如下图所示 

 

xml_to_txt.py代码如下:

import xml.etree.ElementTree as ET
from tqdm import tqdm
import os
from os import getcwd
 
sets = ['train', 'val', 'test']
classes = ['1','5']   # 这里改为你要训练的标签,否则会报错。比如你要识别“hand”,那这里就改为hand
 
def convert(size, box):
    dw = 1. / (size[0])
    dh = 1. / (size[1])
    x = (box[0] + box[1]) / 2.0 - 1
    y = (box[2] + box[3]) / 2.0 - 1
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x * dw
    w = w * dw
    y = y * dh
    h = h * dh
    return x, y, w, h
 
def convert_annotation(image_id):
    # try:
        in_file = open('data/dataset/%s.xml' % (image_id), encoding='utf-8')
        out_file = open('data/labels/%s.txt' % (image_id), 'w', encoding='utf-8')
        tree = ET.parse(in_file)
        root = tree.getroot()
        size = root.find('size')
        w = int(size.find('width').text)
        h = int(size.find('height').text)
        for obj in root.iter('object'):
            difficult = obj.find('difficult').text
            cls = obj.find('name').text
            if cls not in classes or int(difficult) == 1:
                continue
            cls_id = classes.index(cls)
            xmlbox = obj.find('bndbox')
            b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
                 float(xmlbox.find('ymax').text))
            b1, b2, b3, b4 = b
            # 标注越界修正
            if b2 > w:
                b2 = w
            if b4 > h:
                b4 = h
            b = (b1, b2, b3, b4)
            bb = convert((w, h), b)
            out_file.write(str(cls_id) + " " +
                           " ".join([str(a) for a in bb]) + '\n')
    # except Exception as e:
    #     print(e, image_id)
 
wd = getcwd()
for image_set in sets:
    if not os.path.exists('data/labels/'):
        os.makedirs('data/labels/')
    image_ids = open('data/labels/%s.txt' %
                     (image_set)).read().strip().split()
    list_file = open('data/%s.txt' % (image_set), 'w')
    for image_id in tqdm(image_ids):
        list_file.write('data/images/%s.jpg\n' % (image_id))
        convert_annotation(image_id)
    list_file.close()

 

 以上代码中classes = [“你要训练的标签名称”],在本代码中我要训练的数据是识别1和5所以我这里改成了“1”和“5”。大家根据自己的情况进行修改。运行此代码,运行后的结果如下图所示:

接下来在data文件夹中新建myvoc.yaml文件,具体操作以及代码如下图所示: 

注意的是 nc 指的是对象,一张图片里的对象  class是类

如两只狗  nc为2     class 就是前面你标注图片的类

 这里一定要注意一点在train,val,nc,names冒号后面一定要空一格,要判断正确不正确,只要看这几个关键字有没有变颜色,要是变颜色那就说明是正确的。最后再修改models下的yolov5s.yaml文件,具体修改方式如下图所示: 

就这样完成了预处理的工作

五,模型训练 

接下来,我们就可以训练自己的数据了。首先打开终端并进入到yolov5的工程目录中:

 

然后输入命令:

python train.py --epoch 300 --batch 4 --data ./data/myvoc.yaml --cfg ./models/yolov5s.yaml --weight ./weights/yolov5s.pt --workers 0

 

训练中出现如图的情况就代表正在训练,时间较长慢慢等待 

 

 训练结束后,我们就可以看到训练好模型存储的位置,具体如下图所示

 找到训练好的模型last.py将其复制在weights文件下,具体如下图所示: 

 至此我们就完成了模型的训练。

打开摄像头,运行结果

训练完成后,我们可以进行模型的测试,测试一下刚刚训练的结果。打开命令行:

输入指令:

python detect.py --weight ./weights/last.pt --source 0

 注意0 是电脑自带摄像头

1 是外接的摄像头

 

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
您可以使用以下步骤调用YOLOv5来使用自己训练模型进行视频检测: 1. 安装YOLOv5:首先,您需要在您的环境中安装YOLOv5。您可以通过克隆YOLOv5的GitHub仓库来获取代码,并按照其文档中的说明进行安装。 2. 下载自己的模型:确保您已经训练好了自己的YOLOv5模型,并且已经保存为.pt文件。如果您还没有自己的模型,您可以使用YOLOv5提供的默认权重进行演示。 3. 导入所需库:在您的Python代码中,导入所需的库,包括`torch`、`numpy`和`cv2`。 4. 加载模型:使用`torch`库加载您的自定义模型。使用以下代码加载模型: ```python import torch model = torch.hub.load('ultralytics/yolov5', 'custom', path_or_model='path/to/your/model.pt') ``` 确保将`path/to/your/model.pt`替换为您自己模型的路径。 5. 打开视频:使用`cv2`库打开您要检测的视频文件,并获取视频的宽度和高度。 ```python import cv2 video_path = 'path/to/your/video.mp4' cap = cv2.VideoCapture(video_path) width = int(cap.get(cv2.CAP_PROP_FRAME_WIDTH)) height = int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT)) ``` 确保将`path/to/your/video.mp4`替换为您自己视频的路径。 6. 检测视频帧:循环遍历视频的每一帧,并使用YOLOv5模型进行目标检测。使用以下代码: ```python while cap.isOpened(): ret, frame = cap.read() if not ret: break results = model(frame) # 处理检测结果并进行相应的操作,如绘制边界框等 cv2.imshow('Video', frame) if cv2.waitKey(1) == ord('q'): break cap.release() cv2.destroyAllWindows() ``` 7. 处理检测结果:在上述代码的注释部分,您可以进一步处理YOLOv5的检测结果,例如绘制边界框和标签。您可以使用`results.xyxy[0]`来访问检测到的边界框坐标。 8. 运行代码:运行上述代码,您将能够使用自己训练YOLOv5模型对视频进行目标检测。 请注意,这只是一个基本的示例代码,您可能需要根据您的具体需求进行适当的修改和调整。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值