yolov3权重_一个目标检测任务的Hello World项目(手把手带你搭建yolov3)

26b092e935eda7d1e84f5c4e4a2f8c59.png

前言

欢迎大家来到CVHub学习。本文主要介绍的是使用Pytorch搭建YOLOv3目标检测网络,并从头开始训练自定义数据集。

YOLOv3的Github地址:

https://github.com/CVHuber/Detection-getting-started

模型测试(Linux环境下)

一、环境安装与模型下载

(1)首先将github代码克隆到本地

git clone https://github.com/CVHuber/Detection-getting-started

(2)进入到项目文件夹并安装项目运行环境

cd Detection-getting-started/ # 进入项目文件夹
pip install -r requirements.txt # 安装运行环境

(3)模型权重下载

cd weights/ # 进入weights文件夹
bash download_weights.sh # 下载模型权重

模型权重下载之后,在./weights文件夹下会有三个模型权重文件:

0e4dcd925af78e1287ed17f3c83aeef8.png

二、模型测试

在Detection-getting-started项目文件夹下,运行脚本:

python detect.py --image_folder data/samples/

模型测试结果将会存放在./output文件夹下:

cbcb27dd7e9858af932ebcc396054310.png

训练Pascal Voc2007数据集

一、数据集下载

(1)目标检测常用的公共数据集有:Pascal Voc,MSCOCO,Google Open Image,ImageNet和DOTA数据集等。在本文中,我们将采用Pascal Voc2007数据集,因为其数据集比较小(训练和验证集总共才439M,测试集共431M),所以可以很快的跑通检测模型并验证模型!

Pascal Voc2007数据集下载链接:

https://pjreddie.com/projects/pascal-voc-dataset-mirror/

94f23a567ba0664ca24cead255c7b8ef.png

(2)将训练集 / 测试集下载完成之后并解压:

edb0aaf607f2e69d3e810586a2a3d40a.png

其中,JPEGImages是图片,Annotations是目标检测的Label,SegmentationClass和SegmentationObject分别是分类与分割的Label;所以我们只需要取JPEGImages和Annotations即可。

二、数据准备

(1)在./data文件夹下新建一个文件夹voc2007,并在voc2007文件夹下新建train和test文件夹分别存放训练集和测试集,将训练集 / 测试集分别存放到相应的文件夹:

d4f614ac19418a983de2fab9b0929185.png

(2)运行./utils文件夹下的gen_classes.py脚本,并可以统计数据集中存在的待检测目标,并将目标名称写入到classes.names,生成的classes.names文件被保存与./data/voc2007/train文件夹下:

cd utils/ # 进入到utils文件夹
python gen_classes.py # 运行脚本

(3)运行./utils文件夹下的voc.py脚本

python voc.py

./data文件夹下则会产生一个新的名为custom文件夹,custom文件夹包含了YOLOv3模型所需要的数据:

c9649c60d5011bf177f17b79a27a7a15.png

注释:其中images是训练集和验证集的图片(从JPEGImages复制而来);annotation是训练集和验证集的原始标注文件(从Annotations复制而来);train.txt存放训练图片的绝对路径;valid.txt存放验证图片的绝对路径;labels文件夹下存放了每张图片的检测框信息,检测框信息由

(classes_id, x_center_norm, y_center_norm, width_norm, height_norm)组成:

  • x_center_norm = [(xmin + xmax) / 2.0] / img_width
  • y_center_norm = [(ymin + ymax) / 2.0] / img_height
  • width_norm = [(xmax - xmin) / 2.0] / img_width
  • height_norm = [(ymax - ymin) / 2.0] / img_height

三、配置文件

(1)在./config文件夹下运行如下脚本:

bash create_custom_model.sh 20

其中20是数据集中存在的待检测目标数目(因为Pascal Voc2007数据集共20个类别,所以填20),运行上脚本之后之后,在./config文件夹下会生成模型配置文件yolov3-custom.cfg:

a43c9d0cd918d1e42f8a6450fee783e8.png

注释:yolov3-custom.cfg模型配置文件里存放了模型的超参数,可以自己调节这些超参数,比如图片的输入尺寸,初始学习率,ignore_thresh阈值,还有一些卷积参数等等。

(2)修改./config文件夹下的custom.data,修改后的数据如下:

2edaf169eab40b90a9fb2bf2ef86e08e.png

四、模型训练

在项目文件夹下运行如下脚本:

python train.py --data_config config/custom.data --model_def config/yolov3-custom.cfg --device_id 0 

如果要加载预训练模型进行训练,则添加--pretrained_weights weights/darknet53.conv.74即可

模型训练情况:

9310c01641ae963b0da5593aac682259.png

五、模型评估

在项目文件夹下运行如下脚本对刚刚训练得到的模型进行性能评估:

python test.py --weights_path /checkpoints/yolov3_ckpt_10.pth --model_def config/yolov3-custom.cfg --data_config config/custom.data --class_path data/custom/classes.names

如若运行成功,会出现如下信息:

a8d3f5eab5e05e276acb51ccac68704b.png

六、模型预测

如果要使用训练好的模型进行图片预测,并将预测结果保存,则运行如下脚本,预测结果保存在./output文件夹下:

python detect.py --image_folder data/voc2007/test/JPEGImages --model_def config/yolov3-custom.cfg --weights_path /checkpoints/yolov3_ckpt_10.pth --class_path data/classes.names

920f1611a634eca7d7131ab59bc061f2.png

训练自己的数据集

一、自定义数据集

比如公司要你实现一个检测算法:在某特定业务场景下,检测出印刷电路板上的缺陷具体位置并将缺陷进行归类。

比如,下面这几块电路板分别存在short,missing_hole和mouse_bit这三种类别的缺陷,图片引自于[1]

e1d5a59c7ef75564178ca1fc6adbcae7.png

当采集了大量的数据之后,需要对数据集进行label制作,常用的目标检测label制作工具有:

(1)LabelImg:https://github.com/tzutalin/labelImg(最常用)

(2)BBox-Label-Tool:https://github.com/puzzledqs/BBox-Label-Tool

(3)Labelme:https://github.com/wkentaro/labelme

(4)CasiaLabeler:https://github.com/msnh2012/CasiaLabeler

我们一般选择LabelImg进行目标检测框的标注,通过LabelImg,我们可以制作Pascal Voc格式的标注文件。

二、模型训练

接下来,将数据集图片存入./data/voc2007/train/JPEGImages文件夹下,将制作好的Label存入./data/voc2007/train/Annotations文件夹下,之后的训练过程就和训练Pascal Voc2007数据集的一样了!

注意:如果使用另一个标注工具进行Label制作,则只需要自己写好脚本将Label转换为Pascal Voc格式的标注文件即可,后续训练流程同上!

模型改进思路

  1. 如果任务比较简单,可以将特征提取网络Darknet53替换成更加轻量级的特征提取网络
  2. 首先观察数据集,如果待检测目标物体尺度变化较大,则三个预测分支是比较合适的,甚至还可以多加一个检测分支,形成四个检测分支去检测目标;如果待检测目标尺度单一,则可以去掉另外两个检测分支,只考虑一个检测分支,这对精度影响是很小的
  3. 对于待检测目标尺度变化较大问题,可以考虑加入多尺度上下文信息提取模块ASPP或者PSP,并结合通道注意力SE block,有时候会有奇效;同时也可以将FPN架构加入到特征提取器的头部用来解决多尺度目标问题
  4. 可以将边框回归损失MSE替换为IOU-->GIOU-->DIOU-->CIOU(这几种边框回归损失函数需要好好掌握理解,面试常问)
  5. 将通道/空间注意力应用到网络中不同位置,尝试效果

Reference:

[1] https://github.com/Ixiaohuihuihui/Tiny-Defect-Detection-for-PCB

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值