一.实验环境的搭建
1. 安装环境配置:
Python=3.6、tensorflow-gpu==1.6.0、Keras、pillow、opencv-python、matplotlib、numpy
没有通过pip安装(例如:pip install keras)
2. 启动虚拟环境,并且安装对应的实验环境
从darknet官网下载yolov3.weights,将模型保存在keras-yolo3目录下,
3. 模型转换
因为keras的模型文件是h5格式,所以需要将.weights转换成.h5
到keras-yolo3-master目录下,在命令行模式执行
python convert.py -w yolov3.cfg yolov3.weights model_data/yolo.h5
4. 测试
python yolo_video.py --images
当提示:Input image filename时,输入图片路径(比如:images/xxx.jpg)
接着会弹出一张框出目标的图片
二. 人脸数据集的介绍及准备
数据的下载 1. 数据集的下载 本实验使用了:WIDER_train.zip、wider_face_split.zip 2. 数据集的预处理(格式转换) 将数据集的格式转换至VOC数据集格式: 参考博客https://blog.csdn.net/minstyrain/article/details/77986262
三.相关代码的修改及训练
1. 预训练模型的转换 从darknet官网下载darknet53.conv.74模型至keras-yolo3-master文件夹下;