基于卷积神经网络实时识别手势动作

访问【WRITE-BUG数字空间】_[内附完整源码和文档]

使用方法 先用Train.py训练好模型参数,然后运行CallFrame.py调用出界面窗口, 点击窗口的相应按钮就可以在线检测手势动作,其中的执行手势按钮是和下位机通信(如STM32单片机), 通过串口函数将识别结果传给下位机,实现根据手势动作控制的功能。
利用卷积神经网络实时识别手势动作
一共识别 5 种手势动作
剪刀动作
2.石头动作
3.布动作
4.OK 动作
5.good 动作
主要思路:
1.构建数据集 2.建立神经网络 3.训练并调参 4.保存并调用
另外我还加了界面设计和机械臂控制(通过串口通信把判断结果发给单片机,所以代码中有 serial 模块)
训练集: 1~4 号动作各有 1300 张照片,5 号动作有 1450 张照片 测试集: 1~5 号动作各有 200 张照片
文件解释:
data 文件里面存放 test 数据集,train 数据集,实时保存的图像(用于在线检测)。
ges_ico 文件里面存放界面窗口显示的各种图标。
log 文件里面存放训练好的 CNN 网络的模型参数。
CallFrame.py 是界面窗口的逻辑文件,用来调用界面文件并编写信号与槽函数。
Frame.py 是界面窗口的界面文件,通过 PyQt5 的 designer 工具生成。
GetTestImage.py 是利用 OpenCV 获取图片并标记,用来制作测试集。
GetTrainImage.py 是利用 OpenCV 获取图片并标记,用来制作训练集。
SaveGesture.py 是利用 OpenCV 实时获取图片,并进行预处理,用于在线检测手势。
TestGesture.py 是将实时获取的图片送入已训练好的 CNN 中判断其手势动作。
TestInTest.py 是将测试集送入已训练好的 CNN 中判断该网络模型的准确率。
Train.py 是训练 CNN 模型函数,并将训练好的模型参数保存在本地。
Train_inputdata.py 是用来读取数据集的图像和标签,并打包成 batch 形式。
Train_model.py 是模型结构,这里用的是 AlexNet 结构。
使用方法:
先用 Train.py 训练好模型参数,然后运行 CallFrame.py 调用出界面窗口, 点击窗口的相应按钮就可以在线检测手势动作,其中的执行手势按钮是和下位机通信(如 STM32),通过串口函数将识别结果传给下位机,实现根据手势动作控制的功能。
测试结果:
使用该模型训练到 900 步的时候在测试集上正确率可以稳定在 95% 左右。
(训练集:1,2,3,4 号动作各有 1300 张照片,5 号动作有 1450 张照片;测试集:每种动作各有 200 张照片)在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值