YOLOv3训练自己的VOC数据集

https://pjreddie.com/darknet/yolo/

刚开始做深度学习检测任务,在尝试了https://github.com/rbgirshick/py-faster-rcnnhttps://github.com/weiliu89/caffe/tree/ssd之后,正好看到YOLOv3出来,据说比RetinaNet快3.8倍,比SSD快3倍,速度很惊人,因为任务是要在TX1上做实时检测,所以赶紧试起来

1. darknet配置起来不要太方便

下载工程

git clone https://github.com/pjreddie/darknet
cd darknet

修改配置文件

gedit Makefile

修改

GPU=1

CUDNN=1

OPENCV=1

NVCC=/usr/local/cuda-8.0/bin/nvcc

编译

make -j16

下载预训练权值文件

wget https://pjreddie.com/media/files/yolov3.weights

测试一下图片,测试图在data文件夹,结果图在darknet根目录

./darknet detect cfg/yolov3.cfg yolov3.weights data/dog.jpg

测一下视频文件,video file自己放段视频

./darknet detector demo cfg/coco.data cfg/yolov3.cfg yolov3.weights <video file>

2. 训练自己的VOC数据

标记部分不讲了,一个标记工程https://github.com/tzutalin/labelImg

根目录scripts下新建一个VOCdevkit,其中再建一个VOC2007,放Annotations,ImageSets,JPEGImages三个文件夹。

修改scripts/voc_label.py

sets=[ ('2007', 'train'), ('2007', 'val'), ('2007', 'test')]
classes = ["person"]#修改自己的类别,我只有一类
os.system("cat 2007_train.txt 2007_val.txt 2007_test.txt  > train.txt")#输出删掉下面一句

执行voc_label.py

python voc_label.py

在scripts下刚好得到4个txt,其中train.txt为所有的图用于训练

下载imagenet预训练模型

wget https://pjreddie.com/media/files/darknet53.conv.74

修改cfg/voc.data

classes= 1#类别数
train  = /xxx/yolov3/darknet/scripts/train.txt
valid  = /xxx/yolov3/darknet/scripts/2007_test.txt
names = data/voc.names
backup = /xxx/yolov3/darknet/results/  #输出权值路径

修改data/voc.names

person  #自己的类别名

修改cfg/yolov3-voc.cfg,三个yolo层中的classes为自己的类别数,三个yolo层前一层的convolutional中的filters为3*(classes+5),其余超参按需修改。

开始训练

./darknet detector train cfg/voc.data cfg/yolov3-voc.cfg darknet53.conv.74 -gpus 0,1

测试了一下视频效果,一块1080ti检测352*288的视频,fps在120~180,耗显存700M,对比SSD的fps55~65,耗显存1G,最大帧率上速度确实提高3倍左右。2块1080ti测试视频fps在190~240。

TX1上效果,SSD测试视频4~5fps,YOLOv3测试视频24~35fps。

 

这块TX1片内外设不同,非官方版。。最近测了下官方的TX1,YOLOv3测视频17~26fps。

 

 

参考

 

https://blog.csdn.net/davidlee8086/article/details/79693079

https://blog.csdn.net/sinat_30071459/article/details/53100791

 

  • 1
    点赞
  • 30
    收藏
    觉得还不错? 一键收藏
  • 18
    评论
资源为视频检测算法代码包括算法的模型,算法实现的原理是:首先在视频检测跟踪之前,对所有目标已经完成检测,那么当第一帧进来时,以检测到的目标初始化并创建新的跟踪器,标注ID,输出行人图片,输出一组向量,通过比对两个向量之间的距离,来判断两副输入图片是否是同一个行人。在后面帧进来时,先到卡尔曼滤波器中得到由前面帧box产生的状态预测和协方差预测,并且使用确信度较高的跟踪结果进行预测结果的修正。求跟踪器所有目标状态与本帧检测的box的IOU,通过匈牙利算法寻找二分图的最大匹配,在多目标检测跟踪问题中为寻找前后两帧的若干目标的匹配最优解,得到IOU最大的唯一匹配,在去掉匹配值小于iou_threshold的匹配对。 用本帧中匹配到的目标检测box去更新卡尔曼跟踪器,计算卡尔曼增益,状态更新和协方差更新。并将状态更新值输出,作为本帧的跟踪box,再对于本帧中没有匹配到的目标重新初始化跟踪器。 yolo v3首先通过特征提取网络对输入图像提取特征,得到一定size的feature map,通过尺寸聚类确定anchor box。对每个bounding box网络预测4个坐标偏移。如果feature map某一单元偏移图片左上角坐标,bounding box预选框尺寸为,即anchor尺寸,那么生成对预测坐标为,此为feature map层级.而为真值在feature map上的映射,通过预测偏移使得与一致。类别预测方面为多标签分类,采用多个scale融合的方式做预测。
YOLOv3是一种目标检测算法,它可以同时实现目标的检测和分类。训练YOLOv3模型需要使用特定的数据集,其中包括了目标物体的图像和相应的标注信息。在这里,我将为您介绍如何训练YOLOv3模型使用VOC数据集。 1. 下载VOC数据集:首先,您需要下载Pascal VOC数据集,它是一个常用的目标检测数据集。您可以从官方网站上下载VOC2007和VOC2012两个版本的数据集。 2. 数据集准备:解压下载的数据集文件,并将图像和标注文件分别放置在不同的文件夹中。确保每个图像文件都有对应的XML格式的标注文件。 3. 数据集标注:使用标注工具(如LabelImg)打开图像,并手动绘制边界框来标注目标物体的位置。保存标注信息为XML格式。 4. 配置YOLOv3模型:下载YOLOv3的源代码,并根据自己的需求进行配置。主要包括修改配置文件中的类别数、训练集和测试集的路径等。 5. 数据集划分:将整个数据集划分为训练集和验证集。通常情况下,80%的数据用于训练,20%用于验证。 6. 数据集转换:将数据集的图像和标注信息转换为YOLOv3所需的格式。可以使用脚本或工具来完成这一步骤。 7. 模型训练:使用转换后的数据集进行模型训练。运行训练脚本,指定配置文件、权重文件和数据集路径等参数。 8. 模型评估:训练完成后,可以使用测试集对模型进行评估,计算模型的精度、召回率等指标。 9. 模型优化:根据评估结果,可以对模型进行优化,如调整超参数、增加训练数据等。 10. 模型应用:训练完成的YOLOv3模型可以用于目标检测任务,可以通过调用模型的API或使用预训练权重来进行目标检测。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 18
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值