YOLOv2训练voc数据集(一类)

作者:木凌
时间:2016年11月。
博客连接:http://blog.csdn.net/u014540717

在上一篇用YOLOv2模型训练VOC数据集中,我们尝试用YOLOv2来训练voc数据集,但我想训练自己的数据集,那么YOLOv2如何做fine-tuning呢?我们一步一步来做~

1 准备数据

1.1 建立层次结构

首先在darknet/data文件夹下创建一个文件夹fddb2016,文件层次如下

--fddb2016
    --Annotations
        2002_07_19_big_img_130.xml
        2002_07_25_big_img_84.xml
        2002_08_01_big_img_1445.xml
        2002_08_08_big_img_277.xml
        2002_08_16_big_img_637.xml
        2002_08_25_big_img_199.xml
        2003_01_01_big_img_698.xml
        .
        .
        .
    --ImageSets
        --Main
            test.txt
            trainval.txt
    --JPEGImages
        2002_07_19_big_img_130.jpg
        2002_07_25_big_img_84.jpg
        2002_08_01_big_img_1445.jpg
        2002_08_08_big_img_277.jpg
        2002_08_16_big_img_637.jpg
        2002_08_25_big_img_199.jpg
        2003_01_01_big_img_698.jpg
        .
        .
        .
    --labels1.2 xml2txt

因为yolo读取的是txt文档,所以我们要将xml的benchmark修改为txt格式,程序如下所示:

import xml.etree.ElementTree as ET
import pickle
import os
from os import listdir, getcwd
from os.path import join
import cv2

#sets=[('fddb2016', 'train'), ('fddb2016', 'val')]
#classes = ["aeroplane", "bicycle", "bird", "boat", "bottle", "bus", "car", "cat", "chair", "cow", "diningtable", "dog", "horse", "motorbike", "person", "pottedplant", "sheep", "sofa", "train", "tvmonitor"]
classes = ["face"]

def convert(size, box):
    dw = 1./size[0]
    dh = 1./size[1]
    x = (box[0] + box[1])/2.0
    y = (box[2] + box[3])/2.0
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x*dw
    w = w*dw
    y = y*dh
    h = h*dh
    return (x,y,w,h)

def convert_annotation(w, h, image_id):
    in_file = open('fddb2016/Annotations/%s.xml' % image_id)
    out_file = open('fddb2016/labels/%s.txt'% image_id, 'w')
    print in_file
    tree=ET.parse(in_file)
    root = tree.getroot()
    size = root.find('size')

    for obj in root.iter('object'):
        difficult = obj.find('difficult').text
        cls = obj.find('name').text
        if cls not in classes or int(difficult) == 1:
            continue
        cls_id = classes.index(cls)
        xmlbox = obj.find('bndbox')
        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text), float(xmlbox.find('ymax').text))
        bb = convert((w,h), b)
        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')

wd = getcwd()

if not os.path.exists('fddb2016/labels/'):
    os.makedirs('fddb2016/labels/')
image_ids = open('fddb2016/ImageSets/Main/trainval.txt').read().strip().split()
list_file = open('fddb2016_train.txt', 'w')
for image_id in image_ids:
    list_file.write('%s/fddb2016/JPEGImages/%s.jpg\n'% (wd, image_id))
    image = cv2.imread('%s/fddb2016/JPEGImages/%s.jpg'%(wd, image_id))
    h, w, c = image.shape
    convert_annotation(w, h, image_id)
list_file.close()

2 Fine tuning

2.1 修改.cfg文件

如果你想用22层模型的就修改cfg/yolo-voc.cfg,你想用9层的模型就修改cfg/tiny-yolo-voc.cfg,两者修改方式一样,我们以yolo-voc.cfg为例:
复制cfg文件

$cp cfg/yolo-voc.cfg cfg/yolo-fddb.cfg

打开yolo-fddb.cfg文件,并作如下修改

a. 将learning_rate=0.0001改为learning_rate=0.00005
b. 将max_batches = 45000改为max_batches = 200000
c. 将classes=20改为classes=1
d. 将最后一层[convolutional]层的filters=125改为filters=30,filters的计算公式如下,请根据你自己数据的类别数量修改
filters=num(classes+coords+1)=5(1+4+1)=30

最后结果如下:

[net]
batch=64
subdivisions=8
width=416
height=416
channels=3
momentum=0.9
decay=0.0005
angle=0
saturation = 1.5
exposure = 1.5
hue=.1

learning_rate=0.0005
max_batches = 200000
policy=steps
steps=100,25000,35000
scales=10,.1,.1
.

[convolutional]
size=1
stride=1
pad=1
filters=30
activation=linear
[region]
anchors = 1.08,1.19,  3.42,4.41,  6.63,11.38,  9.42,5.11,  16.62,10.52
bias_match=1
classes=1
coords=4
num=5
softmax=1
jitter=.2
rescore=1

object_scale=5
noobject_scale=1
class_scale=1
coord_scale=1

absolute=1
thresh = .6
random=0

2.2 修改voc.names文件

复制voc.names文件

$cp data/voc.names data/fddb.names

修改fddb.names文件,结果如下

face

2.3 修改voc.data文件

复制voc.data文件

$cp cfg/voc.data cfg/fddb.data

修改voc.data文件,结果如下

classes= 1
train  = /home/usrname/darknet-v2/data/fddb2016_train.txt
valid  = valid  = /home/pjreddie/data/voc/2007_test.txt
names = data/fddb.names
backup = /home/guoyana/my_files/local_install/darknet-v2/backup

3 开始训练

YOLOv2已经支持多gpu了,利用voc数据集得到的权重来训练,运行以下命令即可开始

./darknet detector train ./cfg/fddb.data ./cfg/yolo-fddb.cfg backup/yolo-voc_6000.weights -gpus 0,1,2,3

4 结果

3中有个问题:一般预训练模型都用分类的模型,而不是用检测模型训练的。所以上面的方法还是有问题的,loss降到0.1之后就不再下降了。最后没用预训练模型来训练网络,迭代了18000次后的效果如下所示
这里写图片描述

这里写图片描述


(END)


  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
YOLOv3是一种目标检测算法,它可以同时实现目标的检测和分类。训练YOLOv3模型需要使用特定的数据集,其中包括了目标物体的图像和相应的标注信息。在这里,我将为您介绍如何训练YOLOv3模型使用VOC数据集。 1. 下载VOC数据集:首先,您需要下载Pascal VOC数据集,它是一个常用的目标检测数据集。您可以从官方站上下载VOC2007和VOC2012两个版本的数据集。 2. 数据集准备:解压下载的数据集文件,并将图像和标注文件分别放置在不同的文件夹中。确保每个图像文件都有对应的XML格式的标注文件。 3. 数据集标注:使用标注工具(如LabelImg)打开图像,并手动绘制边界框来标注目标物体的位置。保存标注信息为XML格式。 4. 配置YOLOv3模型:下载YOLOv3的源代码,并根据自己的需求进行配置。主要包括修改配置文件中的类别数、训练集和测试集的路径等。 5. 数据集划分:将整个数据集划分为训练集和验证集。通常情况下,80%的数据用于训练,20%用于验证。 6. 数据集转换:将数据集的图像和标注信息转换为YOLOv3所需的格式。可以使用脚本或工具来完成这一步骤。 7. 模型训练:使用转换后的数据集进行模型训练。运行训练脚本,指定配置文件、权重文件和数据集路径等参数。 8. 模型评估:训练完成后,可以使用测试集对模型进行评估,计算模型的精度、召回率等指标。 9. 模型优化:根据评估结果,可以对模型进行优化,如调整超参数、增加训练数据等。 10. 模型应用:训练完成的YOLOv3模型可以用于目标检测任务,可以通过调用模型的API或使用预训练权重来进行目标检测

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值