毕业设计——基于深度学习的手势识别以及手势交互功能(TensorFlow)(YOLO)

前言

今天,向大家介绍基于深度学习的手势识别以及手势交互功能的实现。首先实现对于手势的识别,并通过识别的结果实现人机交互功能。
大家可用于毕业设计,课程设计等。

如有技术问题,欢迎私信询问!
提供毕设、课设等指导!

1、背景介绍

由于手势交互的自然与便利,在众多领域均可进行应用。在智能交通领域,手势识别能够实现驾驶员与车载电脑的快速交互,并且近年来自动驾驶技术迎来了突飞猛进的发展,加入对交警手势的识别将进一步完善现有的自动驾驶技术。在智能家居领域,手势识别将可以与语音控制成为一对互补的交互方式,实现智能家居更加自然的控制。在手语识别领域,通过移动端设备就可以检测并识别出聋哑人手语含义,对于解决聋哑人交流困难等问题具有革命性的意义。

2、项目简介

手势识别在深度学习项目中是比较简单的。本设计是基于YOLOv4模型,使用自制数据集进行训练,得到了一个可靠地手势识别模型。并使用pyqt5开发了GUI程序界面,实现了手势交互功能,如多媒体控制等。

3、环境配置

配置介绍

  1. 系统:Windows 10
  2. 显卡:NVIDIA GTX 1080Ti

版本

  1. cuda 10
  2. cudnn 10
  3. tensorflow-gpu 1.13.2
  4. python 3.6.5
  5. opencv-python
  6. pillow
  7. matplotlib
    ···
    环境配置是所有工作的第一步,这里建议使用anaconda创建一个全新的虚拟环境,并完成相关的环境配置工作,由于篇幅有限且有很多相关文章,在此不再赘述。若有问题,也可私聊解决。

4、模型实现

数据集制作

本设计所需数据集采用VOC2007数据格式,制作包括三个部分,即采集、筛选、打标。
其中采集使用电脑摄像头,自写程序,每5帧保存一次,自己使用时可以修改,即可快速完成采集。代码如下:

import cv2 as cv
import numpy as np

capture = cv.
  • 4
    点赞
  • 77
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值