python手势轮廓提取

1.肤色

def A(img)是肤色判断
这里使用的是椭圆肤色检测模型

在RGB空间里人脸的肤色受亮度影响相当大,所以肤色点很难从非肤色点中分离出来,也就是说在此空间经过处理后,肤色点是离散的点,中间嵌有很多非肤色,这为肤色区域标定(人脸标定、眼睛等)带来了难题。如果把RGB转为YCrCb空间的话,可以忽略Y(亮度)的影响,因为该空间受亮度影响很小,肤色会产生很好的类聚。这样就把三维的空间将为二维的CrCb,肤色点会形成一定得形状,如:人脸的话会看到一个人脸的区域,手臂的话会看到一条手臂的形态。

2.轮廓处理

def B(img)是轮廓处理
轮廓处理的话主要用到两个函数,cv2.findContours和cv2.drawContours,这两个函数的使用使用方法很容易搜到就不说了,这部分主要的问题是提取到的轮廓有很多个,但是我们只需要手的轮廓,所以我们要用sorted函数找到最大的轮廓。
在这里插入图片描述

3.完整代码

""" 从摄像头读取帧保存为图片"""
import cv2
import numpy as np
#cap = cv2.VideoCapture("C:/Users/lenovo/Videos/1.mp4")#读取文件
cap = cv2.VideoCapture(0)#读取摄像头

#皮肤检测
def A(img):

    YCrCb = cv2.cvtColor(img, cv2.COLOR_BGR2YCR_CB) #转换至YCrCb空间
    (y,cr,cb) = cv2.split(YCrCb) #拆分出Y,Cr,Cb值
    cr1 = cv2.GaussianBlur(cr, (5,5), 0)
    _, skin = cv2.threshold(cr1, 0, 255, cv2.THRESH_BINARY + cv2.THRESH_OTSU) #Ostu处理
    res = cv2.bitwise_and(img,img, mask = skin)
    return res

def B(img):

    #binaryimg = cv2.Canny(Laplacian, 50, 200) #二值化,canny检测
    h = cv2.findContours(img,cv2.RETR_EXTERNAL,cv2.CHAIN_APPROX_NONE) #寻找轮廓
    contour = h[0]
    contour = sorted(contour, key = cv2.contourArea, reverse=True)#已轮廓区域面积进行排序
    #contourmax = contour[0][:, 0, :]#保留区域面积最大的轮廓点坐标
    bg = np.ones(dst.shape, np.uint8) *255#创建白色幕布
    ret = cv2.drawContours(bg,contour[0],-1,(0,0,0),3) #绘制黑色轮廓
    return ret


while(True):

    ret, frame = cap.read()
    #下面三行可以根据自己的电脑进行调节
    src = cv2.resize(frame,(400,350), interpolation=cv2.INTER_CUBIC)#窗口大小
    cv2.rectangle(src, (90, 60), (300, 300 ), (0, 255, 0))#框出截取位置
    roi = src[60:300 , 90:300]  # 获取手势框图

    res = A(roi)  # 进行肤色检测
    cv2.imshow("0",roi)

    gray = cv2.cvtColor(res, cv2.COLOR_BGR2GRAY)
    dst = cv2.Laplacian(gray, cv2.CV_16S, ksize = 3)
    Laplacian = cv2.convertScaleAbs(dst)

    contour = B(Laplacian)#轮廓处理
    cv2.imshow("2",contour)

    key = cv2.waitKey(50) & 0xFF
    if key == ord('q'):
            break
cap.release()
cv2.destroyAllWindows()

摘自

https://mp.weixin.qq.com/s?__biz=MzU3Mzk1ODA5OQ==&mid=2247497097&idx=2&sn=928132d1fa2fbb1296ee949a99614497&chksm=fd3b0735ca4c8e230ad2fa135ac6c18bbd70682c7a22d7a9b3a7912e804ce22262f7f9dbcba2&sessionid=0&scene=126&clicktime=1611478563&enterid=1611478563&ascene=3&devicetype=android-29&version=2700163b&nettype=WIFI&abtest_cookie=AAACAA%3D%3D&lang=en&exportkey=A6G%2FP15vTPrdVZ1GD3Ujv%2BU%3D&pass_ticket=%2BmUc%2FVzZRQIxYBOOSP9mSC%2BV3xW093J6UbGRNmHcnp06xg5S6Y8LZ0IqaHX1BM5y&wx_header=1
手势识别是一种通过分析人体手部动作来实现人机交互的技术。在Python中,可以使用OpenCV库来实现手势识别算法设计。通过对图像进行处理和分析,可以提取手部的特征信息,并将其与预定义的手势模式进行匹配,从而实现手势的识别和相应的人机交互操作。 在手势识别算法设计中,可以利用图像处理的知识,如图像属性和形态学处理等,来对手部图像进行预处理和特征提取。通过对手部的轮廓、颜色、纹理等特征进行分析,可以识别出手势的形状和动作。 同时,可以使用Python的GUI编程来设计一个清晰美观的界面,用于显示识别结果和进行人机交互操作。通过将识别的窗口进行设计和优化,可以提高用户的交互体验。 总之,通过使用Python和OpenCV库进行手势识别算法设计,可以实现人机交互的功能,并且可以通过图像处理和GUI编程等技术来提高算法的效果和用户体验。\[1\]\[2\]\[3\] #### 引用[.reference_title] - *1* *2* *3* [基于Python+Open CV的手势识别算法设计](https://blog.csdn.net/qq_57587705/article/details/123937333)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值