本篇文章主要是介绍一个完整快速的训练自定义目标的全过程,具体其中一些为什么另起一篇文章详细介绍
一、在PC机上实现yolov3
1.下载darknet工程
我们在github上下载其源码工程
git clone https://github.com/pjreddie/darknet.git
2.修改Makefile并编译出darknet
进入到下载好的darknet文件夹根目录下,修改Makefile中的前五行为
GPU=1
CUDNN=1
OPENCV=1
OPENMP=0
DEBUG=1
(因为我们在PC机上已经安装好了cuDNN、OPENCV以及1660显卡,所以需要设置上面的相关几行)
在darknet工程根目录下执行编译命令
make -j6
最终我们在darknet目录下编译出了可执行文件 darknet,即darknet安装完成
3.下载预训练模型
#下载预训练模型
wget https://pjreddie.com/media/files/yolov3.weights
#下载yolov3-tiny模型
wget https://pjreddie.com/media/files/yolov3-tiny.weights
#预训练权重文件
wget https://pjreddie.com/media/files/darknet53.conv.74
4.使用下载好的模型进行测试
测试图片检测
#标准模型检测
./darknet detect cfg/yolov3.cfg yolov3.weights data/dog.jpg
#tiny模型检测
./darknet detect cfg/yolov3-tiny.cfg yolov3-tiny.weights data/dog.jpg
测试摄像头实时视频(接入usb摄像头)
#标准的模型测试
./darknet detector demo cfg/coco.data cfg/yolov3.cfg yolov3.weights
#tiny模型测试
./darknet detector demo cfg/coco.data cfg/yolov3-tiny.cfg yolov3-tiny.weights
当我们在上面的命令如果出现 CUDA Error: out of memory ,只需要修改所使用的模型cfg文件
例如:yolov3.cfg文件
第七行中的 subdivisions=16 修改为 subdivisions=32
cfg中的
batch:是指一次输入多少图片到神经网络中来计算loss,并反向update gradients
subdivisions:它会让你的每一个batch不是一下子都丢到网络里。而是分成subdivision对应数字的份数,一份一份的跑完后,在一起打包算作完成一次iteration。这样会降低对显存的占用情况,因为本身我的1660显卡显存不是很大,才6G。如果设置这个参数为1的话就是一次性把所有batch的图片都丢到网络里,如果为2的话就是一次丢一半。 如果使用默认16的话,就是说将batch分为16份但是显存装不下,所以设置为 32
从上面的测试中我们也可以看到,在执行命令后打印的网络层数tiny模型层数明显少于标准模型,且在测试图片后还会打印当前图片检测所花费的时间,tiny模型检测时间相比较短,所以tiny检测的精度与速度自然比不上标准模型,但是其提升了检测速度,降低了GPU硬件门槛
5.制作检测目标的 VOC2012数据集
5.1 准备图片集
这里我以公司一卡通为例子,采集拍摄了总共260张图片,分辨率为960*960,大概如下:
在 scripts 目录下创建如下的文件夹,将上面采集到260张图片放到JPEGImages目录下
我们首先要对采集到图片进行重命名排序,这里统一命名为 2020_000001.jpg ~2020_000260.jpg
写了一个简单的python小程序--modify_name.py对JPEGImages中的图片进行重命名排序,这里贴出来具体如下:
import os
import sys
#path为路径名,这里修改为 JPEGImages文件夹的绝对路径即可
path = '/xxx/xxx/xxx/darknet-master/scripts/VOCdevkit/VOC2012/JPEGImages'
i = 1
for filename in os.listdir(path):
oldDirPath = os.path.join(path,filename)
print(oldDirPath)
fileName = os.path.splitext(filename)[0]
fileType = os.path.splitext(filename)[1]
newDirPath = os.path.join(path,'2020_'+str("%06d"%(i))+fileType)
print(newDirPath)
os.rename(oldDirPath, newDirPath)
i += 1
5.2给图片打标签
这里给上面的图片集打标签需要借助到 labelImg 这一款软件,这个软件有linux版本和windows版本 ,具体的安装以及使用可以在网络上找到,这里就不详细说明,这里我们新建的标签为 hr_card
5.3指定数据集和测试集
我们做好的数据集要一部分作为训练集来训练模型,需要另一部分作为测试集来帮助我们验证模型的可靠性.因此首先要将所有的图像文件随机分配为训练集和测试集.
我们在ImageSets的Main文件夹下新建train.txt 和 val..txt 空白文件分别用于存放训练集的文件名列表和测试集的文件名列表.
使用如下的脚本--make_train_val.txt 用于生成训练集和测试机(这里我使用260张图片的210张用于训练集,50张用于验证集)
import os
from os import listdir, getcwd
from os.path import join
if __name__ == '__main__':
source_folder = '/xx/xx/xx/darknet-master/scripts/VOCdevkit/VOC2012/JPEGImages/' # 图片数据集的路径
train_path = '/xx/xx/xx/darknet-master/scripts/VOCdevkit/VOC2012/ImageSets/Main/train.txt' # 训练集路径
val_path = '/xx/xx/xx/darknet-master/scripts/VOCdevkit/VOC2012/ImageSets/Main/val.txt' # 验证集路径
file_list = os.listdir(source_folder)
train_file = open(train_path, 'a')
val_file = open(val_path, 'a')
count = 0
for file_obj in file_list:
count += 1
file_name,file_extend=os.path.splitext(file_obj)
if(count<211):
train_file.write(file_name+'\n') # 前210个数据收录为训练集
else :
val_file.write(file_name+'\n') #剩下50张图片数据作为验证集
train_file.close()
val_file.close()
执行该脚本我们可以看到在train.val 中存在随机抽取的210个图片文件名,val.txt文件中有存放着50个图片文件名
5.4 指定训练集和测试集的实际路径和标签文件
修改 scripts文件夹下的 voc_label.py 文件来生成训练集和测试集的实际路径文件以及其对应的标签文件
数据集sets修改:我们生成的数据集为训练集和验证集且版本为2012版本
分类classes:因为我们当前只检测一种目标 "hr_card",如果你的数据集中有标注多个目标,这里同样需要添加数量
将2012_train.txt 和 2012_val.txt中的所有数据路径输入到train.txt
执行voc_lable.py脚本,我们就生成了 scripts/2012_train.txt 、2012_val.txt 、train.txt三个文件,以及在数据集 scripts/VOCdevkit/VOC2012/labels 生成了每一个图片数据的标签文件
6.配置yolov3相关文件
6.1 修改 darknet-master/data/voc.names
这里添加自己目标类名,我这里只有一类,所以只需要一行,即
hr_card
6.2 修改darknet-master/cfg/voc.data
按照实际情况修改,这里我只有一类,训练集和测试集路径修改即可
6.3 修改darknet-master/cfg/中的 yolov3-tiny.cfg 或者 yolov3-voc.cfg
6.3.1 yolov3-tiny版本
tiny版本我们需要修改cfg目录下的yolov3-tiny.cfg文件
现在我们需要训练模型,不需要测试,所以将yolov3-tiny.cfg中的Testing下面的batch=1、subdivisions=1注释,释放Training下面的两行,并修改subdivisions=32,修改为32的原因前面已经说明,这里不再赘述
classes=1 ,因为我们只有一类
filters=3*(classes+5),因为我们的classes=1,所以filters=18
生成预训练模型
./darknet partial cfg/yolov3-tiny.cfg yolov3-tiny.weights yolov3-tiny.conv.15 15
训练模型
./darknet detector train cfg/voc.data cfg/yolov3-tiny.cfg yolov3-tiny.conv.15 | tee tiny_hr_card_train_log.txt
训练一段时间后,我们可以按‘ctrl+c’手动结束模型训练,然后可以在backup中找到相应的训练模型,这里我选择的训练模型为 yolov3-tiny_900.weights
训练结束后执行
我们需要修改yolov3-tiny.cfg,注释掉Training,启用Testing
执行如下命令实现实时检测我们自定义的目标
./darknet detector demo cfg/voc.data cfg/yolov3-tiny.cfg backup/yolov3-tiny_900.weights
接下来我们可以将上面训练的模型放到jetsonnano上去运行,有点类似于交叉编译的感觉,这样就不用在jetsonnano上去训练模型了,本身jetsonnano训练模型速度肯定比不上PC端的显卡。
这里我省事一点,不想重复修改上面的一些cfg文件,直接将目前的darknet-master文件夹进行打包,然后发送到jetsonnano上解压
在解压后的darknet-master文件中执行make clean,清除掉前面在pc端生成的一些x86架构上才能运行的执行文件,因为我们现在是在arm上跑,所以需要make clean,重新执行make生成arm架构的darknet等文件。
重新make之后我们直接执行上面的实时检测目标的命令即可实现了,如下图所示,已经能够实时检测我手里的这张卡了(虽然目前的帧率很低,fps大约在6左右,需要进一步的优化。。。)
6.3.2 yolov3版本
我们修改的cfg文件为yolov3-voc.cfg,其具体的修改记录如下:
这里的random表示多尺度训练开关,这个参数仅影响训练速度,当我们的GPU显存较小,我们可以考虑关闭多尺度训练,即random=0,classes和filters设置参数和前面tiny版本一致
模型训练命令,附带保存一些训练时的数据log,log可以用来生成训练相关曲线等便于分析优化:
./darknet detector train cfg/voc.data cfg/yolov3-voc.cfg scripts/darknet53.conv.74 | tee train_yolov3-voc.log
同理,训练一段时间后我们执行‘ctrl+c’结束模型训练,然后在backup中找到相应的模型,例如这里的:yolov3-voc_900.weights
然后我们修改yolov3-voc.cfg文件,和前面tiny一样,注释掉Training,启用Testing中的batch和subdivisions
摄像头实时监测自定义目标命令:
./darknet detector demo cfg/voc.data cfg/yolov3-voc.cfg backup/yolov3-voc_900.weights
可以在PC端实现实时检测自定义目标了
附录:
本文参考以下博客: