yolov3

1.下载yolov3-keras代码

2.下载yolov3-keras权重文件权重 并将其放入根目录下

3.执行如下命令将darknet下的yolov3配置文件转换成keras适用的h5文件
python convert.py yolov3.cfg yolov3.weights model_data/yolo.h5
python convert.py yolov3-tiny.cfg yolov3-tiny.weights model_data/yolov3-tiny.h5

模型文件对应说明如下:
|

模型文件说明
ep034-loss6.105-val_loss6.205.h5经过训练的模型
yolo.h5YOLO 官方预训练模型

4.运行预测图像程序python yolo_video.py --image

在命令行输入图片地址 img/mask.jpg

,即可预测
三、训练自身数据
1.使用VOC格式的数据进行训练
训练前将标签文件放在VOCdevkit文件夹下的VOC2007文件夹下的Annotation中。

训练前将图片文件放在VOCdevkit文件夹下的VOC2007文件夹下的JPEGImages中。

在训练前利用voc2yolo3.py文件生成对应的txt。

VOCdevkit -VOC2007
├─ImageSets # 存放数据集列表文件,由voc2yolo3.py文件生成
├─Annotations # 存放图片标签,xml 格式
├─JPEGImages # 存放数据集中图片文件
└─voc2yolo3.py # 用来生成数据集列表文件

2.生成YOLOV3所需数据
每一行对应其图片位置及其真实框的位置

再运行根目录voc_annotation.py,运行前需要将voc_annotation文件中classes改成你自己的classes。

3.在训练前可根据自身需要修改model_data里面的yolo_anchors.txttiny_yolo_anchors.txt,利用kmeans.py来生成,k=9,生成yolo_anchors;k=6,生成tiny_yolo

3.在训练前需要修改model_data里面的voc_classes.txt文件,需要将classes改成你自己的classes。

4.修改train.py配置,通过修改anchor_path,从而选择使用yolov3训练还是yolov3-tiny训练

5.运行train.py 即可开始训练,训练好的模型存放在logs下。

四、测试
修改根目录下yolo.py文件,修改model_path,anchors_path,classes_path替换成自己的路径

1.单张图片测试
python yolo_video.py --image,输入图片名称即可

2.电脑摄像头实时检测
python yolo_video.py --input

此外对应的yolo.py文件174行改为vid = cv2.VideoCapture(0)

3.测试本地视频

python yolo_video.py --input

此外对应的yolo.py文件174行改为vid = cv2.VideoCapture(“视频路径+视频名+视频后缀名”);

4.测试本地视频并且保存视频效果python yolo_video.py --output

此外对应的yolo.py文件184行改为out = cv2.VideoWriter(“视频路径+视频名+视频后缀名”, video_FourCC, video_fps, video_size);

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值