通过Python实现手势识别及目标检测的一些感想

※说明:文章中出现的代码均非原创,仅作引用说明使用。

第一次写粗制滥造的屑博客,后续还会进行修改(如果能改的话)。

 关于手势识别

概要

        手势识别,即为向程序输入图形(图片、视频、实时录像等),通过程序识别人体皮肤颜色的方式,勾画出轮廓,从而实现手势识别的目的。

        所以手势识别本质上是识别人体皮肤的颜色,将其与图像上其他事物区分开来。

         以上截图是一段手势识别程序运行时的效果。

运行原理

        这里利用Python、OpenCV进行处理。

        首先是常规的操作,将图像(视频)输入至程序,之后方可进行处理。

import cv2
import numpy as np
cap = cv2.VideoCapture(XXX)#XXX为0时读取摄像头,为"YYY.mp4"等文件名时读取文件

        接着是皮肤检测,借物的代码没有做太多的分析,主要是将图形拆分出Y、Cr、Cb值,在整张图像中进行判断。判断皮肤范围后绘制轮廓。

def A(img):

    YCrCb = cv2.cvtColor(img, cv2.COLOR_BGR2YCR_CB) #转换至YCrCb空间
    (y,cr,cb) = cv2.split(YCrCb) #拆分出Y,Cr,Cb值
    cr1 = cv2.GaussianBlur(cr, (5,5), 0)
    _, skin = cv2.threshold(cr1, 0, 255, cv2.THRESH_BINARY + cv2.THRESH_OTSU) #Ostu处理
    res = cv2.bitwise_and(img,img, mask = skin)
    return res

def B(img):

    #binaryimg = cv2.Canny(Laplacian, 50, 200) #二值化,canny检测
    h = cv2.findContours(img,cv2.RETR_EXTERNAL,cv2.CHAIN_APPROX_NONE) #寻找轮廓
    contour = h[0]
    contour = sorted(contour, key = cv2.contourArea, reverse=True)#已轮廓区域面积进行排序
    #contourmax = contour[0][:, 0, :]#保留区域面积最大的轮廓点坐标
    bg = np.ones(dst.shape, np.uint8) *255#创建白色幕布
    ret = cv2.drawContours(bg,contour[0],-1,(0,0,0),3) #绘制黑色轮廓
    return ret

        然后需要对输入的图形进行一定的处理,除了确定处理的范围之外,根据具体图像环境不同,需要对肤色进行判断。接着才能进行检测。

        最后分析之后需要输出给人看,白色的底图和绘制的轮廓,可以体现出手势的样式。

 >这么长串别人的代码,就不继续贴出来了吧(悲)

缺点

        由于这串代码并未对“手的形状”进行识别,而只是单纯的识别肤色进行绘图,因此露脸的人脸等或会被绘入轮廓中。但若要对手本身进行识别,难度较大对新手不友好。通过识别肤色的方式可以较为简单地实现手势的识别,只要人体皮肤其他部位没有出镜即可。

关于目标检测

运行的图丢一个出来,坑先挖着(

 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值