基于Keras+YOLOv3的口罩佩戴情况检测系统【超详细!!!保姆级教程】

本文详述了如何基于Keras和YOLOv3开发一个口罩佩戴检测系统,涵盖开发环境配置、数据集制作、模型训练、检测效果展示及PyQt5 GUI界面实现。通过创建和训练针对口罩佩戴的YOLOv3模型,实现对人脸口罩情况的准确检测,并最终整合到用户界面中。
摘要由CSDN通过智能技术生成

先放张GUI界面图给大家瞅瞅~

1. 开发环境

硬件环境(个人笔记本电脑)

  • 处理器:Inter(R)Core(TM)i7-9750H CPU
  • 内存:8.00GB
  • 显卡:NVDIA GeForce GTX 1650
  • 硬盘:可用空间300GB以上

软件环境

  • win10 64位
  • python3.7.0
  • TensorFlow-GPU 1.13.1
  • Keras2.2.4
  • OpenCV4.2.0
  • PyQt5
  • 当然还有很多python的模块包,但是我这里记不清啦~如果有需要pip install就可以~

关于开发环境稍后我会专门写一篇博客详细介绍,帮助大家避雷。很多小白可能还没机会感受AI的快乐就被配置环境劝退了哈哈哈,想当初我也是踩了很多很多坑,说多了都是泪啊 ~

YOLOv3的原理不和大家讲了,毕竟不是一句两句话能说清的,对于初学者来说肯定有些难理解,不过没关系,大家一开始都是初学者,慢慢来别放弃,总有一天大家都能看懂原理 ~

但是要和大家展示一下下载下来的yolov3文件夹结构,为了方便描述,博主就称它为根目录吧 ~
就是下图,有一个大概的印象,便于后面我们复现。这个文件夹我在评论区给到大家 ~~
在这里插入图片描述

2. 制作数据集

配置好环境后,我们要准备自己的人脸口罩数据集了!

要检测口罩佩戴情况,就要先获取一定数量的相关图片,放入设计好的神经网络中训练(本文是YOLOv3),这些相关图片就叫做数据集,啊当然不只是单纯的图片,我们还要对这些图片做一些处理,也就是本章内容。

笔者的数据集是从一位老前辈那里求来的,是一个非常完美非常OK的数据集,省的大家自己去爬虫了。
数据集包含6366张高质量图片,有戴口罩的人、不戴口罩的人、用手或其他物品遮挡脸的人等多种情况,确保样本的多样性和全面性。

数据集文件夹VOCdevkit在根目录里,结构见下图。其中,

  • JPEGImages文件夹存放收集到的原始图片,依次以1-6366命名;
  • Annotations文件夹存放使用labelImg工具生成的含有所有目标位置和类别信息的图片标签,每个文件对应一张图片(具体怎么生成下面马上讲到);
  • ImageSets文件夹存放数据集列表文件,通常为train.txt、test.txt等,分类并保存不同用途的图像(听不懂没关系下面都会讲到࿰
评论 57
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值