目录
前言
今天,向大家介绍基于深度学习的手势识别以及手势交互功能的实现。首先实现对于手势的识别,并通过识别的结果实现人机交互功能。
大家可用于毕业设计,课程设计等。
如有技术问题,欢迎私信询问!
提供毕设、课设等指导!
1、背景介绍
由于手势交互的自然与便利,在众多领域均可进行应用。在智能交通领域,手势识别能够实现驾驶员与车载电脑的快速交互,并且近年来自动驾驶技术迎来了突飞猛进的发展,加入对交警手势的识别将进一步完善现有的自动驾驶技术。在智能家居领域,手势识别将可以与语音控制成为一对互补的交互方式,实现智能家居更加自然的控制。在手语识别领域,通过移动端设备就可以检测并识别出聋哑人手语含义,对于解决聋哑人交流困难等问题具有革命性的意义。
2、项目简介
手势识别在深度学习项目中是比较简单的。本设计是基于YOLOv4模型,使用自制数据集进行训练,得到了一个可靠地手势识别模型。并使用pyqt5开发了GUI程序界面,实现了手势交互功能,如多媒体控制等。
3、环境配置
配置介绍
- 系统:Windows 10
- 显卡:NVIDIA GTX 1080Ti
版本
- cuda 10
- cudnn 10
- tensorflow-gpu 1.13.2
- python 3.6.5
- opencv-python
- pillow
- matplotlib
···
环境配置是所有工作的第一步,这里建议使用anaconda创建一个全新的虚拟环境,并完成相关的环境配置工作,由于篇幅有限且有很多相关文章,在此不再赘述。若有问题,也可私聊解决。
4、模型实现
数据集制作
本设计所需数据集采用VOC2007数据格式,制作包括三个部分,即采集、筛选、打标。
其中采集使用电脑摄像头,自写程序,每5帧保存一次,自己使用时可以修改,即可快速完成采集。代码如下:
import cv2 as cv
import numpy as np
capture = cv.