yolov2训练自己的数据库

拿到了训练图片和标注文件xml

开始按voc结构来构造自己的数据集

    --VOC  
        --Annotations  
        --ImageSets  
          --Main  
        --JPEGImages  

这里只列出关键的,之后还会建立一个labels目录(Ubuntu大小写有无空格好敏感!!!)

这里面用到的文件夹是Annotation、ImageSets和JPEGImages。其中文件夹Annotation中主要存放xml文件,每一个xml对应一张图像,并且每个xml中存放的是标记的各个目标的位置和类别信息,命名通常与对应的原始图像一样;而ImageSets我们只需要用到Main文件夹,这里面存放的是一些文本文件,通常为train.txt、test.txt、2018_train.txt等,train.txt、test.txt该文本文件里面的内容是需要用来训练或测试的图像的名字(无后缀无路径),2018_train.txt包含所有的路径;JPEGImages文件夹中放我们已按统一规则命名好的原始图像。

      因此,首先
      1.新建文件夹VOC2007(通常命名为这个,也可以用其他命名,但一定是名字+年份,例如MYDATA2016,无论叫什么后面都需要改相关代码匹配这里,本例中以 VOC2007为例)
      2.在VOC2007文件夹下新建三个文件夹 Annotation、ImageSets和JPEGImages,并把准备好的自己的原始图像放在JPEGImages文件夹下

      3.在ImageSets文件夹中,新建三个空文件夹Layout、Main、Segmentation,然后把写了训练或测试的图像的名字的文本拷到Main文件夹下,按目的命名,我这里所有图像用来训练,故而Main文件夹下只有train.txt文件。

生成脚本:creat_list.py:

# coding=utf-8
#这个小脚本是用来打开图片文件所在文件夹,把前900个用于训练的图片的名称保存在tain.txt,后103个用于验证的图片保存在val.txt
import os
from os import listdir, getcwd
from os.path import join
if __name__ == '__main__':
    source_folder='/home/yolo_v2_tinydarknet/darknet/infrared/image/dout/'#地址是所有图片的保存地点
    dest='/home/yolo_v2_tinydarknet/darknet/infrared/train.txt' #保存train.txt的地址
    dest2='/home/yolo_v2_tinydarknet/darknet/infrared/val.txt'  #保存val.txt的地址
    file_list=os.listdir(source_folder)       #赋值图片所在文件夹的文件列表
    train_file=open(dest,'a')                 #打开文件
    val_file=open(dest2,'a')                  #打开文件
    for file_obj in file_list:                #访问文件列表中的每一个文件
        file_path=os.path.join(source_folder,file_obj) 
        #file_path保存每一个文件的完整路径
        file_name,file_extend=os.path.splitext(file_obj)
        #file_name 保存文件的名字,file_extend保存文件扩展名
        file_num=int(file_name) 
        #把每一个文件命str转换为 数字 int型 每一文件名字都是由四位数字组成的  如 0201 代表 201     高位补零  
        if(file_num<900):                     #保留900个文件用于训练
            #print file_num
            train_file.write(file_name+'\n')  #用于训练前900个的图片路径保存在train.txt里面,结尾加回车换行
        else :
            val_file.write(file_name+'\n')    #其余的文件保存在val.txt里面
    train_file.close()#关闭文件
    val_file.close()

上面说的小代码运行后会生成该文件,把它拷进去即可。

1.生成相关文件

    按darknet的说明编译好后,接下来在darknet-master/scripts文件夹中新建文件夹VOCdevkit,然后将整个VOC2007文件夹都拷到VOCdevkit文件夹下。
    然后,需要利用scripts文件夹中的voc_label.py文件生成一系列训练文件和labels,具体操作如下:
    首先需要修改voc_label.py中的代码,这里主要修改数据集名,以及类别信息,我的是VOC2007,并且所有样本用来训练,没有val或test,并且只检测人,故只有一类 目标,因此按如下设置
[python] view plain copy
  1. import xml.etree.ElementTree as ET  
  2. import pickle  
  3. import os  
  4. from os import listdir, getcwd  
  5. from os.path import join  
  6.   
  7. #sets=[('2012', 'train'), ('2012', 'val'), ('2007', 'train'), ('2007', 'val'), ('2007', 'test')]  
  8.   
  9. #classes = ["aeroplane", "bicycle", "bird", "boat", "bottle", "bus", "car", "cat", "chair", "cow", "diningtable", "dog", "horse", "motorbike", "person", "pottedplant", "sheep", "sofa", "train", "tvmonitor"]  
  10.   
  11. sets=[('2007''train')]  
  12. classes = [ "person"]  
  13.   
  14.   
  15. def convert(size, box):  
  16.     dw = 1./size[0]  
  17.     dh = 1./size[1]  
  18.     x = (box[0] + box[1])/2.0  
  19.     y = (box[2] + box[3])/2.0  
  20.     w = box[1] - box[0]  
  21.     h = box[3] - box[2]  
  22.     x = x*dw  
  23.     w = w*dw  
  24.     y = y*dh  
  25.     h = h*dh  
  26.     return (x,y,w,h)  
  27.   
  28. def convert_annotation(year, image_id):  
  29.     in_file = open('VOCdevkit/VOC%s/Annotations/%s.xml'%(year, image_id))  #(如果使用的不是VOC而是自设置数据集名字,则这里需要修改)  
  30.     out_file = open('VOCdevkit/VOC%s/labels/%s.txt'%(year, image_id), 'w')  #(同上)  
  31.     tree=ET.parse(in_file)  
  32.     root = tree.getroot()  
  33.     size = root.find('size')  
  34.     w = int(size.find('width').text)  
  35.     h = int(size.find('height').text)  
  36.   
  37.     for obj in root.iter('object'):  
  38.         difficult = obj.find('difficult').text  
  39.         cls = obj.find('name').text  
  40.         if cls not in classes or int(difficult) == 1:  
  41.             continue  
  42.         cls_id = classes.index(cls)  
  43.         xmlbox = obj.find('bndbox')  
  44.         b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text), float(xmlbox.find('ymax').text))  
  45.         bb = convert((w,h), b)  
  46.         out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')  
  47.   
  48. wd = getcwd()  
  49.   
  50. for year, image_set in sets:  
  51.     if not os.path.exists('VOCdevkit/VOC%s/labels/'%(year)):  
  52.         os.makedirs('VOCdevkit/VOC%s/labels/'%(year))  
  53.     image_ids = open('VOCdevkit/VOC%s/ImageSets/Main/%s.txt'%(year, image_set)).read().strip().split()  
  54.     list_file = open('%s_%s.txt'%(year, image_set), 'w')  
  55.     for image_id in image_ids:  
  56.         list_file.write('%s/VOCdevkit/VOC%s/JPEGImages/%s.jpg\n'%(wd, year, image_id))  
  57.         convert_annotation(year, image_id)  
  58.     list_file.close()  
修改好后在该目录下运行命令:python voc_label.py,之后则在文件夹scripts\VOCdevkit\VOC2007下生成了文件夹lables,该文件夹下的画风是这样的

这里包含了类别和对应归一化后的位置(i guess,如有错请指正)。同时在scripts\下应该也生成了2007_train.txt这个文件,里面包含了所有训练样本的绝对路径。

2.配置文件修改

      做好了上述准备,就可以根据不同的网络设置(cfg文件)来训练了。在文件夹cfg中有很多cfg文件,应该跟caffe中的prototxt文件是一个意思。这里以tiny-yolo-voc.cfg为例,该网络是yolo-voc的简版,相对速度会快些。主要修改参数如下

[plain] view plain copy
  1. .  
  2. .  
  3. .  
  4. [convolutional]  
  5. size=1  
  6. stride=1  
  7. pad=1  
  8. filters=30  //修改最后一层卷积层核参数个数,计算公式是依旧自己数据的类别数filter=num×(classes + coords + 1)=5×(1+4+1)=30  
  9. activation=linear  
  10.   
  11. [region]  
  12. anchors = 1.08,1.19,  3.42,4.41,  6.63,11.38,  9.42,5.11,  16.62,10.52  
  13. bias_match=1  
  14. classes=1  //类别数,本例为1类  
  15. coords=4  
  16. num=5  
  17. softmax=1  
  18. jitter=.2  
  19. rescore=1  
  20.   
  21. object_scale=5  
  22. noobject_scale=1  
  23. class_scale=1  
  24. coord_scale=1  
  25.   
  26. absolute=1  
  27. thresh = .6  
  28. random=1  
另外也可根据需要修改learning_rate、max_batches等参数。
修改好了cfg文件之后,就需要修改两个文件,首先是data文件下的voc.names。打开voc.names文件可以看到有20类的名称,本例中只有一类,检测人,因此将原来所有内容清空,仅写上person并保存。名字仍然用这个名字,如果喜欢用其他名字则请按一开始制作自己数据集的时候的名字来修改。

      接着需要修改cfg文件夹中的voc.data文件。也是按自己需求修改,我的修改之后是这样的画风:

[plain] view plain copy
  1. classes= 1  //类别数  
  2. train  = /home/kinglch/darknet-master/scripts/2007_train.txt  //训练样本的绝对路径文件,也就是上文2.1中最后生成的  
  3. //valid  = /home/pjreddie/data/voc/2007_test.txt  //本例未用到  
  4. names = data/voc.names  //上一步修改的voc.names文件  
  5. backup = /home/kinglch/darknet-master/results/  //指示训练后生成的权重放在哪  
修改后按原名保存最好,接下来就可以训练了。

3.运行训练

      上面完成了就可以命令训练了,可以在官网上找到一些预训练的模型作为参数初始值,也可以直接训练,训练命令为

[plain] view plain copy
  1. $./darknet detector train cfg/voc.data cfg/yolo-voc.cfg
如果用官网的预训练模型darknet.conv.weights做初始化,则训练命令为
[plain] view plain copy
  1. $./darknet detector train cfg/voc.data cfg/yolo-voc.cfg darknet19_448.conv.23
      

不过我没试成功,加上这个模型直接就除了final,不知道啥情况。当然也可以用自己训练的模型做参数初始化,万一训练的时候被人终端了,可以再用训练好的模型接上去接着训练。

     训练过程中会根据迭代次数保存训练的权重模型,然后就可以拿来测试了,测试的命令同理:

./darknet detector test cfg/voc.data cfg/yolo-voc.cfg results/yolo-voc_6000.weights data/images.jpg
      这样就完成了整个流程
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值