在yolov3上训练自己的数据集+jetsonnano上运行tiny-yolov3

本篇文章主要是介绍一个完整快速的训练自定义目标的全过程,具体其中一些为什么另起一篇文章详细介绍

一、在PC机上实现yolov3

1.下载darknet工程

我们在github上下载其源码工程

git clone https://github.com/pjreddie/darknet.git

2.修改Makefile并编译出darknet

进入到下载好的darknet文件夹根目录下,修改Makefile中的前五行为

GPU=1                                                                                                                                                                                                   
CUDNN=1
OPENCV=1
OPENMP=0
DEBUG=1

(因为我们在PC机上已经安装好了cuDNN、OPENCV以及1660显卡,所以需要设置上面的相关几行)

在darknet工程根目录下执行编译命令

make -j6

最终我们在darknet目录下编译出了可执行文件 darknet,即darknet安装完成

3.下载预训练模型 

#下载预训练模型
wget https://pjreddie.com/media/files/yolov3.weights

#下载yolov3-tiny模型
wget https://pjreddie.com/media/files/yolov3-tiny.weights

#预训练权重文件
wget https://pjreddie.com/media/files/darknet53.conv.74

4.使用下载好的模型进行测试

测试图片检测

#标准模型检测
./darknet detect cfg/yolov3.cfg yolov3.weights data/dog.jpg

#tiny模型检测
./darknet detect cfg/yolov3-tiny.cfg yolov3-tiny.weights data/dog.jpg

测试摄像头实时视频(接入usb摄像头)

#标准的模型测试
./darknet detector demo cfg/coco.data cfg/yolov3.cfg yolov3.weights

#tiny模型测试
./darknet detector demo cfg/coco.data cfg/yolov3-tiny.cfg yolov3-tiny.weights

当我们在上面的命令如果出现 CUDA Error: out of memory ,只需要修改所使用的模型cfg文件

例如:yolov3.cfg文件

第七行中的 subdivisions=16 修改为 subdivisions=32

cfg中的

   batch:是指一次输入多少图片到神经网络中来计算loss,并反向update gradients

   subdivisions它会让你的每一个batch不是一下子都丢到网络里。而是分成subdivision对应数字的份数,一份一份的跑完后,在一起打包算作完成一次iteration。这样会降低对显存的占用情况,因为本身我的1660显卡显存不是很大,才6G。如果设置这个参数为1的话就是一次性把所有batch的图片都丢到网络里,如果为2的话就是一次丢一半。 如果使用默认16的话,就是说将batch分为16份但是显存装不下,所以设置为 32

从上面的测试中我们也可以看到,在执行命令后打印的网络层数tiny模型层数明显少于标准模型,且在测试图片后还会打印当前图片检测所花费的时间,tiny模型检测时间相比较短,所以tiny检测的精度与速度自然比不上标准模型,但是其提升了检测速度,降低了GPU硬件门槛

5.制作检测目标的 VOC2012数据集 

5.1 准备图片集

这里我以公司一卡通为例子,采集拍摄了总共260张图片,分辨率为960*960,大概如下:

在 scripts 目录下创建如下的文件夹,将上面采集到260张图片放到JPEGImages目录下

我们首先要对采集到图片进行重命名排序,这里统一命名为 2020_000001.jpg ~2020_000260.jpg

写了一个简单的python小程序--modify_name.py对JPEGImages中的图片进行重命名排序,这里贴出来具体如下:

import os
import sys

#path为路径名,这里修改为 JPEGImages文件夹的绝对路径即可
path = '/xxx/xxx/xxx/darknet-master/scripts/VOCdevkit/VOC2012/JPEGImages'
i = 1

for filename in os.listdir(path):
    oldDirPath = os.path.join(path,filename)
    print(oldDirPath)
    fileName = os.path.splitext(filename)[0]
    fileType = os.path.splitext(filename)[1]
    newDirPath = os.path.join(path,'2020_'+str("%06d"%(i))+fileType)
    print(newDirPath)
    os.rename(oldDirPath, newDirPath)
    i += 1

5.2给图片打标签

这里给上面的图片集打标签需要借助到 labelImg 这一款软件,这个软件有linux版本和windows版本 ,具体的安装以及使用可以在网络上找到,这里就不详细说明,这里我们新建的标签为 hr_card

5.3指定数据集和测试集

我们做好的数据集要一部分作为训练集来训练模型,需要另一部分作为测试集来帮助我们验证模型的可靠性.因此首先要将所有的图像文件随机分配为训练集和测试集.

我们在ImageSets的Main文件夹下新建train.txt 和 val..txt 空白文件分别用于存放训练集的文件名列表和测试集的文件名列表.

使用如下的脚本--make_train_val.txt 用于生成训练集和测试机(这里我使用260张图片的210张用于训练集,50张用于验证集)

import os
from os import listdir, getcwd
from os.path import join

if __name__ == '__main__':
    source_folder = '/xx/xx/xx/darknet-master/scripts/VOCdevkit/VOC2012/JPEGImages/'              # 图片数据集的路径
    train_path    = '/xx/xx/xx/darknet-master/scripts/VOCdevkit/VOC2012/ImageSets/Main/train.txt' # 训练集路径
    val_path      = '/xx/xx/xx/darknet-master/scripts/VOCdevkit/VOC2012/ImageSets/Main/val.txt'   # 验证集路径

    file_list  = os.listdir(source_folder)       
    train_file = open(train_path, 'a')                 
    val_file   = open(val_path, 'a')   
    count      = 0               

    for file_obj in file_list:
        count += 1                
        file_name,file_extend=os.path.splitext(file_obj)
        if(count<211):
            train_file.write(file_name+'\n') # 前210个数据收录为训练集
        else :
            val_file.write(file_name+'\n') #剩下50张图片数据作为验证集
    train_file.close()
    val_file.close()

执行该脚本我们可以看到在train.val 中存在随机抽取的210个图片文件名,val.txt文件中有存放着50个图片文件名

5.4 指定训练集和测试集的实际路径和标签文件

修改 scripts文件夹下的 voc_label.py 文件来生成训练集和测试集的实际路径文件以及其对应的标签文件

数据集sets修改:我们生成的数据集为训练集和验证集且版本为2012版本

分类classes:因为我们当前只检测一种目标 "hr_card",如果你的数据集中有标注多个目标,这里同样需要添加数量

将2012_train.txt 和 2012_val.txt中的所有数据路径输入到train.txt

执行voc_lable.py脚本,我们就生成了 scripts/2012_train.txt 、2012_val.txt 、train.txt三个文件,以及在数据集 scripts/VOCdevkit/VOC2012/labels 生成了每一个图片数据的标签文件

6.配置yolov3相关文件

6.1 修改 darknet-master/data/voc.names

这里添加自己目标类名,我这里只有一类,所以只需要一行,即

hr_card

6.2 修改darknet-master/cfg/voc.data

按照实际情况修改,这里我只有一类,训练集和测试集路径修改即可

6.3 修改darknet-master/cfg/中的 yolov3-tiny.cfg 或者 yolov3-voc.cfg

6.3.1 yolov3-tiny版本

tiny版本我们需要修改cfg目录下的yolov3-tiny.cfg文件

现在我们需要训练模型,不需要测试,所以将yolov3-tiny.cfg中的Testing下面的batch=1、subdivisions=1注释,释放Training下面的两行,并修改subdivisions=32,修改为32的原因前面已经说明,这里不再赘述

classes=1 ,因为我们只有一类

filters=3*(classes+5),因为我们的classes=1,所以filters=18

生成预训练模型

./darknet partial cfg/yolov3-tiny.cfg yolov3-tiny.weights yolov3-tiny.conv.15 15

训练模型

./darknet detector train cfg/voc.data cfg/yolov3-tiny.cfg yolov3-tiny.conv.15 | tee tiny_hr_card_train_log.txt

训练一段时间后,我们可以按‘ctrl+c’手动结束模型训练,然后可以在backup中找到相应的训练模型,这里我选择的训练模型为 yolov3-tiny_900.weights

训练结束后执行

我们需要修改yolov3-tiny.cfg,注释掉Training,启用Testing

执行如下命令实现实时检测我们自定义的目标

./darknet detector demo cfg/voc.data cfg/yolov3-tiny.cfg backup/yolov3-tiny_900.weights

接下来我们可以将上面训练的模型放到jetsonnano上去运行,有点类似于交叉编译的感觉,这样就不用在jetsonnano上去训练模型了,本身jetsonnano训练模型速度肯定比不上PC端的显卡。

这里我省事一点,不想重复修改上面的一些cfg文件,直接将目前的darknet-master文件夹进行打包,然后发送到jetsonnano上解压

在解压后的darknet-master文件中执行make clean,清除掉前面在pc端生成的一些x86架构上才能运行的执行文件,因为我们现在是在arm上跑,所以需要make clean,重新执行make生成arm架构的darknet等文件。

重新make之后我们直接执行上面的实时检测目标的命令即可实现了,如下图所示,已经能够实时检测我手里的这张卡了(虽然目前的帧率很低,fps大约在6左右,需要进一步的优化。。。)

6.3.2 yolov3版本

我们修改的cfg文件为yolov3-voc.cfg,其具体的修改记录如下:

这里的random表示多尺度训练开关,这个参数仅影响训练速度,当我们的GPU显存较小,我们可以考虑关闭多尺度训练,即random=0,classes和filters设置参数和前面tiny版本一致

模型训练命令,附带保存一些训练时的数据log,log可以用来生成训练相关曲线等便于分析优化:

./darknet detector train cfg/voc.data cfg/yolov3-voc.cfg scripts/darknet53.conv.74 | tee train_yolov3-voc.log

同理,训练一段时间后我们执行‘ctrl+c’结束模型训练,然后在backup中找到相应的模型,例如这里的:yolov3-voc_900.weights

然后我们修改yolov3-voc.cfg文件,和前面tiny一样,注释掉Training,启用Testing中的batch和subdivisions

摄像头实时监测自定义目标命令:

./darknet detector demo cfg/voc.data cfg/yolov3-voc.cfg backup/yolov3-voc_900.weights

可以在PC端实现实时检测自定义目标了

附录:

本文参考以下博客:

使用yolov3-tiny训练自己的图像数据以及在jetson Nano上的测试

评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值