YoloV3实现自己数据集的训练测试

数据集准备

首先利用LabelImg标注工具进行数据标注,存储成xml格式。LabelImg下载链接:https://download.csdn.net/download/weixin_43689247/12668067
在这里插入图片描述

训练代码

采用Pytorch框架,代码的github地址:https://github.com/ultralytics/yolov3

数据预处理

对xml文件进行数据处理。
1、将数据集的annotations和JPEGImages放入data目录下,并新建ImageSets,labels,复制JPEGImages,重命名images。
在这里插入图片描述
2、在yolov3代码的目录下新建makeTxt.py,将数据分成训练集,测试集和验证集,其中比例可以在代码设置,代码如下:

import os
import random
 
trainval_percent = 0.1
train_percent = 0.9
xmlfilepath = 'data/Annotations'
txtsavepath = 'data/ImageSets'
total_xml = os.listdir(xmlfilepath)
 
num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list, tv)
train = random.sample(trainval, tr)
 
ftrainval = open('data/ImageSets/trainval.txt', 'w')
ftest = open('data/ImageSets/test.txt', 'w')
ftrain = open('data/ImageSets/train.txt', 'w')
fval = open('data/ImageSets/val.txt', 'w')
 
for i in list:
    name = total_xml[i][:-4] + '\n'
    if i in trainval:
        ftrainval.write(name)
        if i in train:
            ftest.write(name)
        else:
            fval.write(name)
    else:
        ftrain.write(name)
 
ftrainval.close()
ftrain.close()
fval.close()
ftest.close()

在ImageSets得到四个文件,其中我们主要关注的是train.txt,test.txt,val.txt,文件里主要存储图片名称。
在这里插入图片描述
3、在yolov3代码的目录下新建voc_label.py,得到labels的具体内容以及data目录下的train.txt,test.txt,val.txt,这里的train.txt与之前的区别在于,不仅仅得到文件名,还有文件的具体路径。voc_label.py的代码如下:

import xml.etree.ElementTree as ET
import pickle
import os
from os import listdir, getcwd
from os.path import join
 
sets = ['train', 'test','val']
 
classes = ["ear", "hat", "eye_g"]
 
 
def convert(size, box):
    dw = 1. / size[0]
    dh = 1. / size[1]
    x = (box[0] + box[1]) / 2.0
    y = (box[2] + box[3]) / 2.0
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x * dw
    w = w * dw
    y = y * dh
    h = h * dh
    return (x, y, w, h)
 
 
def convert_annotation(image_id):
    in_file = open('data/Annotations/%s.xml' % (image_id))
    out_file = open('data/labels/%s.txt' % (image_id), 'w')
    tree = ET.parse(in_file)
    root = tree.getroot()
    size = root.find('size')
    w = int(size.find('width').text)
    h = int(size.find('height').text)
 
    for obj in root.iter('object'):
        difficult = obj.find('difficult').text
        cls = obj.find('name').text
        if cls not in classes or int(difficult) == 1:
            continue
        cls_id = classes.index(cls)
        xmlbox = obj.find('bndbox')
        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
             float(xmlbox.find('ymax').text))
        bb = convert((w, h), b)
        if bb[2]<0 or bb[3]<0:
            print(image_id)
        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
 
 
wd = getcwd()
print(wd)
for image_set in sets:
    if not os.path.exists('data/labels/'):
        os.makedirs('data/labels/')
    image_ids = open('data/ImageSets/%s.txt' % (image_set)).read().strip().split()
    list_file = open('data/%s.txt' % (image_set), 'w')
    for image_id in image_ids:
        list_file.write('data/images/%s.jpg\n' % (image_id))
        convert_annotation(image_id)
    list_file.close()

labels文件下的具体labels信息:
在这里插入图片描述

配置文件

1、在data目录下新建yourdataset.data,配置训练的数据, 内容如下:

classes=3
train=data/train.txt
valid=data/test.txt
names=data/Web_GlassAndHat.names
backup=backup/
eval=coco

2、在data目录下新建yourdataset.names,配置预测的类别,内容如下:

ear
hat
eye_g

3、网络结构配置,在原工程下cfg目录有很多yolov3网络结构,我们本次采用的是yolov3-tiny.cfg,
因为我们只是检测一个类,所以需要对yolov3-tinycfg文件进行修改,主要改第127和第171行的filters,因为每个网格预测3个anchor结果,所以filters=3*(your_numclasses+5),我的类别数目是3,所以filters为24。另外,还要改第135行和第177行的classes,改成自己的类别数目。
在这里插入图片描述
在这里插入图片描述
4、获取官网已经训练好的网络参数yolov3-tiny.weights,下载链接为https://pjreddie.com/media/files/yolov3-tiny.weights,导入weights目录下,由于需要fine-tune,所以需要对yolov3-tiny.weights进行改造,因而需要下载官网的代码https://github.com/pjreddie/darknet,运行一下脚本,并将得到的yolov3-tiny.conv.15导入weights目录下,脚本如下:
./darknet partial cfg/yolov3-tiny.cfg yolov3-tiny.weights yolov3-tiny.conv.15 15
或者直接下载yolov3-tiny.conv.15,地址为https://download.csdn.net/download/sinat_27634939/11162686

准备训练和测试

1、train.py的代码用到了服务器所有gpu,这对有些人来说是不科学的,容易out of memory,所以可以在train.py的最前面中加入:

import os
os.environ["CUDA_VISIBLE_DEVICES"] = "0"

2、在utils/utils.py中的build_targets函数中,

将第469行的tbox.append(torch.cat((gxy - gij, gwh), 1)) 变成 tbox.append(torch.cat((gxy - gij.float(), gwh), 1)),并将546行的print(x, i, x.shape, i.shape)注释掉。

这样就可以跑起来了。

训练命令: python train.py --data data/Web_GlassAndHat.data --cfg cfg/yolov3-tiny.cfg --epochs 200 --weights weights/yolov3-tiny.weights

测试命令:python detect.py --cfg cfg/yolov3-tiny.cfg --weights weights/best.pt --names data/Web_GlassAndHat.names

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值