yolov5从安装到使用


最近要用到yolov5,所以记录一下。
yolov5有4中结构,分别是yolov5s,yolov5m,yolov5l,yolov5x。
从前往后精度与训练时间递增。网络模型深度与宽度逐渐加深加宽。

所用的软件安装

首先下载Anaconda,Anaconda官网:https://www.anaconda.com/

下载直接按照步骤安装即可,需要注意的是要在下图位置把环境变量勾选上。具体的步骤可以看看anaconda的安装教程。
安装完可以在cmd中输入 conda -V,出现版本号证明环境变量配置成功了。之后就可以安装自己的torch虚拟环境了。
在cmd输入conda create -n mtorch python=3.8。【这里面mtorch是自己定义的虚拟环境的名称(之后可以敲命令输入这个名字直接进入到这个虚拟环境中)python的版本号可以在下载的yolov5的文件夹下的requirements.txt确认一下。】
运行后在输入选项处输入y
安装成功后输入activate mtorch就可以激活环境了。
安装pytorch
yolov5最新版本需要pytorch1.7版本以上,CUDA10.1,输入:

pip install torch==1.7.0+cu101 torchvision==0.8.1+cu101 torchaudio===0.7.0 -f https://download.pytorch.org/whl/torch_stable.html

之后下载yolov5 . 地址: https://github.com/ultralytics/yolov5
在文件夹下运行cmd,激活虚拟环境。
安装所需要的依赖项

pip install -r requirements.txt

labelimg
数据标注我们用labelimg,可以在cmd中下载,速度较慢

pip install labelimg

在官网下载yolov5 https://github.com/ultralytics/yolov5

制作自己的数据集

在YOLOv5目录下创建paper_data文件夹(名字可以自定义),,将之前labelImg标注好的xml文件和图片放到对应目录下
images 存放图片;
Annotations 存放xml文件;
ImageSets之后会自动生成train.txt,val.txt,test.txt和trainval.txt四个文件,存放训练集、验证集、测试集图片的名字
paper_data 文件夹下面存放训练集、验证集、测试集的划分,通过脚本生成,可以创建一个splitdata.py文件,代码内容如下:

# coding:utf-8

import os
import random
import argparse

parser = argparse.ArgumentParser()
#xml文件的地址,根据自己的数据进行修改 xml一般存放在Annotations下
parser.add_argument('--xml_path', default='paper_data/Annotations', type=str, help='input xml label path')
#数据集的划分,地址选择自己数据下的ImageSets
parser.add_argument('--txt_path', default='paper_data/ImageSets', type=str, help='output txt label path')
opt = parser.parse_args()

trainval_percent = 1.0
train_percent = 0.9
xmlfilepath = opt.xml_path
txtsavepath = opt.txt_path
total_xml = os.listdir(xmlfilepath)
if not os.path.exists(txtsavepath):
    os.makedirs(txtsavepath)

num = len(total_xml)
list_index = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list_index, tv)
train = random.sample(trainval, tr)

file_trainval = open(txtsavepath + '/trainval.txt', 'w')
file_test = open(txtsavepath + '/test.txt', 'w')
file_train = open(txtsavepath + '/train.txt', 'w')
file_val = open(txtsavepath + '/val.txt', 'w')

for i in list_index:
    name = total_xml[i][:-4] + '\n'
    if i in trainval:
        file_trainval.write(name)
        if i in train:
            file_train.write(name)
        else:
            file_val.write(name)
    else:
        file_test.write(name)

file_trainval.close()
file_train.close()
file_val.close()
file_test.close()

之后我们要准备使用的labels了,把数据集格式转换成yolo_txt格式,即将每个xml标注提取bbox信息为txt格式,每个图像对应一个txt文件,文件每一行为一个目标的信息,包括class, x_center, y_center, width, height格式。
创建voc_label.py文件,将训练集、验证集、测试集生成label标签(训练中要用到),同时将数据集路径导入txt文件中,代码内容如下:

# -*- coding: utf-8 -*-

import xml.etree.ElementTree as ET
from tqdm import tqdm
import os
from os import getcwd

sets = ['train', 'val', 'test']
classes = ['cnum']


def convert(size, box):
    dw = 1. / (size[0])
    dh = 1. / (size[1])
    x = (box[0] + box[1]) / 2.0 - 1
    y = (box[2] + box[3]) / 2.0 - 1
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x * dw
    w = w * dw
    y = y * dh
    h = h * dh
    return x, y, w, h


def convert_annotation(image_id):
    # try:
        in_file = open('paper_data/Annotations/%s.xml' % (image_id), encoding='utf-8')
        out_file = open('paper_data/labels/%s.txt' % (image_id), 'w', encoding='utf-8')
        tree = ET.parse(in_file)
        root = tree.getroot()
        size = root.find('size')
        w = int(size.find('width').text)
        h = int(size.find('height').text)
        for obj in root.iter('object'):
            difficult = obj.find('difficult').text
            cls = obj.find('name').text
            if cls not in classes or int(difficult) == 1:
                continue
            cls_id = classes.index(cls)
            xmlbox = obj.find('bndbox')
            b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
                 float(xmlbox.find('ymax').text))
            b1, b2, b3, b4 = b
            # 标注越界修正
            if b2 > w:
                b2 = w
            if b4 > h:
                b4 = h
            b = (b1, b2, b3, b4)
            bb = convert((w, h), b)
            out_file.write(str(cls_id) + " " +
                           " ".join([str(a) for a in bb]) + '\n')
    # except Exception as e:
    #     print(e, image_id)


wd = getcwd()
for image_set in sets:
    if not os.path.exists('paper_data/labels/'):
        os.makedirs('paper_data/labels/')
    image_ids = open('paper_data/ImageSets/%s.txt' %
                     (image_set)).read().strip().split()
    list_file = open('paper_data/%s.txt' % (image_set), 'w')
    for image_id in tqdm(image_ids):
        list_file.write('paper_data/images/%s.jpg\n' % (image_id))
        convert_annotation(image_id)
    list_file.close()

之后要进行对自己的数据集的配置文件
1)数据集的配置
在yolov5目录下的data文件夹下新建一个myvoc.yaml文件(可以自定义命名),用来存放训练集和验证集的划分文件(train.txt和val.txt),这两个文件是通过运行voc_label.py代码生成的,然后是目标的类别数目和具体类别列表,myvoc.yaml内容如下:

train: paper_data/train.txt
val: paper_data/val.txt

# number of classes
nc: 1

# class names
names: ["cnum"]

其中 nc 为你要识别的目标数量
names为目标名称
2) 选择一个你需要的模型
在yolov5目录下的model文件夹下是模型的配置文件,这边提供s、m、l、x版本,逐渐增大(随着架构的增大,训练时间也是逐渐增大),四个文件都只用修改一个参数即把nc改成自己的类别数,需要取整(可选) 。

模型训练

1、下载预训练模型
在YOLOv5的GitHub开源网址上下载对应版本的模型
我下载完之后是在yolov5目录下新建另外一个weights目录来存放模型。
2、训练
在正式开始训练之前,需要对train.py进行修改。之后就可以进行训练了。
(小提示:是在文件目录下打开cmd命令行激活你的虚拟环境)

更详细的

刚接触,看了别人的文章,有成果了,记录一下,详细的可以看看这个。
链接: link.

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值