yolov3检测人头_基于yolo_v3的人脸检测

本文档详细介绍了如何使用YOLOv3进行人脸检测,包括实验环境搭建,权重转换,数据集准备,模型训练,以及训练后模型的应用。首先,介绍了安装和配置环境,将YOLOv3模型权重转换为Keras的h5格式。接着,讨论了人脸数据集的获取和预处理。然后,讲述了预训练模型转换和训练过程,以及如何修改代码进行训练。最后,提供了使用训练好的模型进行人脸检测的方法。
摘要由CSDN通过智能技术生成

一.实验环境的搭建

1. 安装环境配置:

Python=3.6、tensorflow-gpu==1.6.0、Keras、pillow、opencv-python、matplotlib、numpy

没有通过pip安装(例如:pip install keras)

2. 启动虚拟环境,并且安装对应的实验环境

从darknet官网下载yolov3.weights,将模型保存在keras-yolo3目录下,

3. 模型转换

因为keras的模型文件是h5格式,所以需要将.weights转换成.h5

到keras-yolo3-master目录下,在命令行模式执行

python convert.py -w yolov3.cfg yolov3.weights model_data/yolo.h5

4. 测试

python yolo_video.py --images

当提示:Input image filename时,输入图片路径(比如:images/xxx.jpg)

接着会弹出一张框出目标的图片

二. 人脸数据集的介绍及准备

数据的下载 1. 数据集的下载 本实验使用了:WIDER_train.zip、wider_face_split.zip 2. 数据集的预处理(格式转换) 将数据集的格式转换至VOC数据集格式: 参考博客https://blog.csdn.net/minstyrain/article/details/77986262

三.相关代码的修改及训练

1. 预训练模型的转换 从darknet官网下载darknet53.conv.74模型至keras-yolo3-master文件夹下;

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值