基于mediapipe和opencv的手势控制电脑鼠标

通过我的上一篇文章,可以了解到mediapipe关于手部检测的使用方法。这时我们就可以进行一些更加炫酷的操作。这篇文章我就来讲解一下如何用手势来控制电脑鼠标。

在开始之前我们要介绍一个能够操作电脑鼠标的库pyautogui,这里我简单介绍一下该库的一些函数,方便大家观看最后的源码

函数名 作用
pyautogui.size() 获取屏幕的分辨率,返回值为width,height
pyautogui.click(x,y,button = ‘left/right’) 在屏幕的(x,y)处进行左键或右键的点击操作
pyautogui.doubleClick(x,y) 在屏幕的(x,y)处双击左键
pyautogui.moveTo(x, y, duration=0) 将鼠标移动到指定的(x,y)处;duration 的作用是设置移动时间,是可选参数
pyautogui.FAILSAFE =True 默认这项功能为True, 这项功能意味着:当鼠标在屏幕的最左上角,程序会报错;目的是防止程序一直控制鼠标导致程序无法结束

由于mediapipe的使用方法在上一篇文章中已经介绍过了,这里就不再重复介绍了。如果小伙伴不知道mediapipe是什么的话,点击这里,看我的上一篇文章

思路

首先使用opencv调用摄像头,从摄像头读取图像,将图像反转(摄像头读取的图像与现实中是相反的),并将图像转换为RGB模式。接着使用mediapipe进行手部检测,并用列表存储手部的21个关键点的坐标。利用该列表进行检测:
        当手指食指小于160度的时候认定鼠标点击左键
        当手指中食小于160度的时候认定鼠标点击右键
        当手指食指和中值之间的距离小于40的时候认定鼠标点双击左键
        (如果不知道如何检测手指角度数,请看我的上一篇文章)
然后我用手部关键点的0和9的坐标的中值来代替鼠标,大概就在下图我标注的绿色点的位置
在这里插入图片描述

实现过程的难点

这里有两个难点:第一,一开始的时候我获取到屏幕的分辨率(

  • 13
    点赞
  • 44
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
OpenCV(Open Source Computer Vision Library)是一个广泛使用的计算机视觉库,用于处理图像和视频。对于手势识别,通常会结合深度学习的方法,例如使用Convolutional Neural Networks (CNN) 来训练模型,识别人体的手势动作。 如果你想用OpenCV进行手势识别并控制亮度,你可以采用以下步骤: 1. **数据收集和准备**:首先,你需要获取或制作一组带有手势标记的手部图像,作为训练数据集。可以使用深度相机(如Kinect)或摄像头捕捉视频,并手动标记每个手势。 2. **手势检测模型**:使用OpenCV和深度学习框架(如TensorFlow或PyTorch),训练一个手势识别模型,比如基于YOLO(You Only Look Once)或OpenPose这样的实时人体关键点检测算法来定位手部关键点。 3. **亮度调整**:一旦检测到手势,可以根据手势的具体信息动态调整画面的亮度。例如,如果手势表示“加亮”,可以增加当前图像的亮度;如果表示“减暗”,则降低亮度。这可以通过OpenCV的图像操作函数,如`cv2.addWeighted()`或`cv2.convertScaleAbs()`来实现。 4. **集成与实时应用**:将手势识别部分和亮度调整部分整合到一个实时应用程序中,确保在用户做出手势时能即时响应。 相关问题-- 1. 如何在OpenCV中使用深度学习模型进行手势识别? 2. 有没有现成的OpenCV库可以直接用于手势控制亮度调整? 3. 如何在OpenCV中实现图像的亮度调整功能?

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值