基于OpenCV的简易实时手势识别(含代码)

1.基本信息介绍

这是我大一寒假时写着玩的,非常简陋。基于凸包检测,所以实际上是计算指尖数量判断1~5的手势。又为1 ~3手势赋了控制鼠标操作的功能(但不能移动鼠标,而且因为手势识别不太准确所以这个功能实现得很废/doge)。(才疏学浅,希望有生之年能写个更好的
版本信息:Visual Studio2015 OpenCV4.1.1
语言:C/C++
(至于为什么不用python,现在当事人也很后悔

1.1实验步骤

(1)图像捕获
直接调用笔记本内置摄像头,使图像绕y轴对称翻转,得到内置(前置)摄像头所拍摄的视频画面的镜像画面,从而得到以操作者为第一视角的正向画面。

(2)肤色检测
先将图像由RGB空间转换至YCrCb空间。
然后将图像成Y(像素的亮度)、Cb(红色分量与亮度的信号差值)、Cr(蓝色分量与亮度的信号差值)三个单通道图像。
再提取Cb、Cr两通道的图像,进行数值判断,满足Cr>133 && Cr<173 && Cb>77 && Cb<127的点即判断为肤色部分。
最后将完成肤色切割的图像进行二值化。

(3)图像预处理
本实验先使用开运算(即先腐蚀后膨胀)对二值化后的手掌图像进行处理,去除图中的小孤立点,消除较小连通域,保留较大连通域,在不明显改变较大连通域面积的同时平滑连通域的边界,是手掌轮廓更明显,为之后的漫水填充做准备。
然后进行高斯滤波,从而消除图像上的高斯噪声。
再通过漫水填充算法,将手掌中因光线角度等因素在肤色检测中缺失的部分填充。
最后图像腐蚀处理漫水填充后的图像,将细小的噪声去除的同时,将图像主要区域的面积缩小。为之后的多边形拟合曲线求得图像近似轮廓做准备。

(4)指尖检测
本实验先用多边形逼近手部轮廓,求得近似轮廓。
再使用凸包检测函数对手部轮廓进一步进行多边形逼近,进而获得一个凸多边形。找到重心位置,通过比较凸包的顶点与重心的y轴坐标,去除纵坐标小于重心纵坐标的顶点,保留纵坐标大于重心的凸包的顶点,再规定凸点间距离范围以消除由同一个指尖产生的多个凸包顶点,得到指尖数量。

(5)模拟鼠标
最后通过得到的指尖数量,控制鼠标操作。
当指尖数量=1时,在图像重心处显示“Left”,同时执行鼠标左键单击功能。
当指尖数量=2时,在图像重心处显示“Double click”,同时执行鼠标左键双击功能。
当指尖数量=3时,在图像重心处显示“Right”,同时执行鼠标右键单击功能。

1.2效果展示

请添加图片描述

#include<opencv2\opencv.hpp>
#include<iostream>
#include<vector>
#include<algorithm>
#include<math.h>
#include<Windows.h>

using namespace std;
using namespace cv;

/*介绍基本信息*/
void Introduce()
{
	cout << "\n----------------------------------------------------------------------------";
	cout << "\n功能:以手势代替鼠标进行左右键点击";
	cout << "\n版本信息:Visual Studio2015	OpenCV4.1.1";
	cout << "\n-------------------------------------指令集---------------------------------";
	cout << "\n手势1:单击鼠标左键Left";
	cout << "\n手势2:双击鼠标左键Double click";
	cout << "\n手势3:单击鼠标右键Right";
	cout << "\n----------------------------------------------------------------------------\n";
}

2.肤色检测+二值化+开运算+高斯模糊

2.1 flip()函数原型

本实验通过使图像绕y轴对称翻转,得到内置(前置)摄像头所拍摄的视频画面的镜像画面,从而得到以操作者为第一视角的正向画面。

flip()函数原型
flip(	InputArray		src,
OutputArray	dst,
Int				flipCode
)

①src:输入图像。
②dst:输出图像,与src具有相同的大小、数据类型及通道数。
③flipCode:翻转方式标志。数值大于0表示绕y轴翻转;数值等于0表示绕x轴翻转;数值小于0,表示绕两个轴翻转。

2.2cvtColor()函数原型

本实验中肤色检测步骤如下:
①通过颜色模型转换函数cvtColor()函数将图像由RGB空间转换至YCrCb空间。
②通过多通道分离函数split()将图像成Y(像素的亮度)、Cb(红色分量与亮度的信号差值)、Cr(蓝色分量与亮度的信号差值)三个单通道图像。
③提取Cb、Cr两通道的图像,进行数值判断,满足Cr>133 && Cr<173 && Cb>77 && Cb<127的点即判断为肤色部分。
④将完成肤色切割的图像进行二值化。

cvtColor()函数原型
cvtColor(	InputArray		src,
OutputArray	dst,
int		code,
int		dstCn	=0
)

①src:待转换颜色模型的原始图像。
②dst:转换颜色模型后的目标图像。
③code:颜色空间转换的标志。本实验使用的标志参数为。
④dstCn:目标图像中的通道数。若参数为0,则从src和代码中自动导出通道数。本实验中使用默认参数。

2.3split()函数原型

split()函数原型
split(	const		Mat& src,
Mat *		mvbegin
)
split(	InputArray				m,
OutputArrayOfArrays	mv
)

①src:待分离的多通道图像。
②mvbegin:分离后的单通道图像,为数组形式,数组大小需要与图像的通道数一致。
③m:待分离的多通道图像。
④mv:分离后的单通道图像,为向量(vector)形式。

2.4GaussianBlur()函数原型

在图像采集的众多过程中都容易引用高斯噪声。高斯滤波器考虑了像素滤波器中心距离的影响,以滤波器中心位置为高斯分布的均值,根据高斯分布公式和每个像素离中心位置的距离计算出滤波器内每个位置的数值,从而形成一个高斯滤波器。在将高斯滤波器与图像之间进行滤波操作,进而实现对图像的高斯滤波。
本实验使用GaussianBlur()函数进行高斯滤波。

GaussianBlur()函数原型
GaussianBlur(	InputArray		src,
OutputArray	dst,
Size			ksize,
double			sigmaX,
double			sigmaY=0,
int				borderType=BORDER_DEFAULT(默认参数)
)

①src:待高斯滤波的图像,图像的数据类型必须为CV_8U、CV_16U、CV_16S、CV_32F或CV_64F,通道数目任意。
②dst:输出图像,与src尺寸、通道数、数据类型都相同。
③ksize:高斯滤波器的尺寸。滤波器必须是政奇数。如果尺寸为0,则由标准偏差计算尺寸。
④sigmaX:X轴方向的高斯滤波器标准偏差。
⑤sigmaY:Y轴方向的高斯滤波器标准偏差。如果输入量为0,则将其设置为等于sigmaX;如果两个轴的标准差都为0,则根据输入的高斯滤波器尺寸计算标准偏差。
⑥borderType:像素外推法选择标志。(边界外推方法标志见下表)

方法标志参数简记作用
BORDER_CONSTANT0用特定值填充
BORDER_REPLICATE1两端复制填充
BORDER_REFLECT2倒序填充
BORDER_WRAP3正序填充
BORDER_REFLECT_1014不包含边界值的倒序填充
BORDER_TRANSPARENT5随机填充
BORDER_REFLECT1014同BORDER_REFLECT_101
BORDER_DEFAULT4同BORDER_DEFAULLT
BORDER_ISOLATED16不关心感兴趣区域之外的部

2.5Code

/*基于YCrCb空间的肤色检测+二值化+开运算+高斯模糊*/
Mat skin(Mat&ImageIn)
{
		Mat Image_y;
		flip(ImageIn, Image_y, 1);//将图像沿y轴翻转,即镜像
		namedWindow("前置摄像头", WINDOW_NORMAL | WINDOW_KEEPRATIO);imshow("前置摄像头", Image_y);

		Mat Image = Image_y.clone();//用clone()函数复制图像
		Mat YCrCb_Image;
		cvtColor(Image, YCrCb_Image, COLOR_BGR2YCrCb);
		vector<Mat>Y_Cr_Cb;
		split(YCrCb_Image, Y_Cr_Cb);
		Mat CR = Y_Cr_Cb[1];
		Mat CB = Y_Cr_Cb[2];
		Mat ImageOut = Mat::zeros(Image.size(), CV_8UC1);//zeros():构建一个全为0的矩阵,即创建一个全黑的图片

		//Cr>133 && Cr<173 && Cb>77 && Cb<127
		for (int i = 0; i < Image.rows; i++)
		{
			for (int j = 0; j < Image.cols; j++)
			{
				if (CR.at<uchar>(i, j) >= 133 && CR.at<uchar>(i, j) <= 173 && CB.at<uchar>(i, j) >= 77 && CB.at<uchar>(i, j) <= 127)
				{
					ImageOut.at<uchar>(i, j) = 255;
				}
			}
		}

		Mat kernel = getStructuringElement(MORPH_RECT, Size(3, 3));//结构元素 表示内核为一个3*3的矩形
		morphologyEx(ImageOut, ImageOut, MORPH_OPEN, kernel);//使用morphologyEx()函数进行开运算
		GaussianBlur(ImageOut, ImageOut, Size(3, 3), 5);
		
		return ImageOut;
}

3.连通空心部分+腐蚀

3.1 floodFill()函数原型

漫水填充法是根据像素灰度值之间的差值寻找相同区域以实现分割。本实验通过floodFill()函数,将手掌中因光线角度等因素在肤色检测中缺失的部分填充。
漫水填充法主要步骤如下:
①选择种子点。
②以种子为中心,判断4-领域或者8-领域的像素值与中子点像素值的差值,将差值小于阈值的像素点添加进区域内。
③将新加入的像素点作为新的种子点,反复执行第二步,直到没有新的像素点被添加进该区域为止。

floodFill()函数原型
floodFill(	InputOutputArray		image,
InputOutputArray		mask,
Point					seedPoint,
Scalar					newVal,
Rect					*rect=0,
Scalar					loDiff = Scalar(),
Scalar					upDiff = Scalar(),
int						flags = 4
)

①image:输入及输出图像,可以为CV_8U或CV_32F数据类型的单通道或三通道图像。
②mask:掩码矩阵,尺寸比输入图像宽和高各大2的单通道图像,用于标记漫水填充的区域
③seedPoint:种子点,可以为图像范围内任意一点。
④newVal:归入种子点区域内像素点的新像素值,该值会直接作用在原图中。
⑤rect:种子点漫水填充区域的最小矩形边界,默认值为0,表示不输出边界。
⑥loDiff:添加进种子点区域条件的下界差值,当邻域某像素点的像素值域与种子点像素值的差值大于该值时,该像素点被添加进种子所在的区域。
⑦upDiff:添加进种子点区域条件的上界差值,当种子点像素值与邻域某像素点的像素值的差值小于该值时,该像素点被添加进种子点所在的区域。
⑧flags:漫水填充法的操作标志,由3部分构成,分别表示邻域种类、掩码矩阵中被填充像素点的像素值和填充算法的规则,填充算法可选的标志如下表

操作标志参数简记含义
FLOODFILL_FIXED_RANGE1<<16如果设置该参数,那么仅考虑当前像素值与初始种子点像素之间的差值,否则考虑新种子点像素值与当前像素值之间的差异,即范围是否浮动的标志
FLOODFILL_MASK_ONLY1<<17如果设置,那么该函数不会更改原始图像,即忽略第四个参数newVal,只生成掩码矩阵

3.2 morphologyEx()函数原型

本实验中使用开运算处理肤色检测处理后的图像,去除图中的噪声,消除较小连通域,保留较大连通域,并且能够在不明显改变较大连通域面积的同时平滑连通域的边界,为之后的漫水填充做准备。
本实验中还使用了图像腐蚀处理漫水填充后的图像,将细小的噪声去除的同时,将图像主要区域的面积缩小。为之后的多边形拟合曲线求得图像近似轮廓做准备。
OpenCV4中提供了图像腐蚀和膨胀运算不同组合形式的morphologyEx()函数。

morphologyEx()函数原型
MorphologyEx(	InputArray		src,
OutoutArray	dst,
int				op,
InputArray		kernel,
Point	anchor = point(-1,-1),
int		iterations = 1,
Int		borderType = BORDER_CONSTANT,
Const Scalar & borderValue = morphologyDefaultBorderValue()
)

src:输入图像
dst:形态学操作后的输出图像
op:形态学操作类型的标志,可选择的标志及其函数如下表所示
kernel:结构元素,可以自己生成,也可以用getStructuringElement()函数生成
anchor:中心点在结构元素中的位置,默认参数为结构元素的集合中心点。
iterations:处理的次数
borderType:像素外推法选择标志
borderValue:使用边界不变外推法时的边界值。

形态学操作类型标志参数简记含义
MORPH_ERODE0图像腐蚀
MORPH_DILATE1图像膨胀
MORPH_OPEN2开运算
MORPH_CLOSE3闭运算
MORPH_GRANDIENT4形态学梯度
MORPH_TOPHAT5顶帽运算
MORPH_BLACKHAT6黑帽运算
MORPH_HITMISS7击中击不中运算

3.3Code

/*连通空心部分+腐蚀*/
Mat Floodfill(Mat&Img_src)
{
	Size f_size = Img_src.size();
	Mat image = Mat::zeros(f_size.height + 2, f_size.width + 2, CV_8UC1);
	Img_src.copyTo(image(Range(1, f_size.height + 1), Range(1, f_size.width + 1)));
	floodFill(image, Point(0, 0), Scalar(255));
	Mat cutImg, Img_dst;
	image(Range(1, f_size.height + 1), Range(1, f_size.width + 1)).copyTo(cutImg);
	Img_dst = Img_src | (~cutImg);

	Mat kernel1 = getStructuringElement(MORPH_RECT, Size(10, 10));//结构元素 表示内核为一个10*10的矩形
	morphologyEx(Img_dst,Img_dst, MORPH_ERODE, kernel1);//使用morphologyEx()函数进行腐蚀运算

	return Img_dst;
}

4.多边形拟合曲线

4.1approxPolyDP()函数原型

本实验通过approxPolyDP()函数对图像进行处理,用多边形逼近手部轮廓,求得近似轮廓,为之后的凸包检测做准备。

approxPolyDP()函数原型
approxPolyDP(	InputArray		curve,
OutputArray	approxCurve,
double 		epsilon,
bool			closed
)

①curve:输入轮廓像素点。
②approxCurve:多边形逼近结果,以多边形顶点坐标的形式给出。
③epsilon:逼近的精度,即原始曲线和逼近曲线之间的最大距离。
④closed:逼近曲线是否为封闭曲线的标志,true表示封闭。

4.2Code

/*计算两点间距离*/
double distance(Point a, Point b)
{
	double distance = sqrt(abs((a.x - b.x)*(a.x - a.x) + (a.y - b.y)*(a.y - b.y)));
	return distance;
}

/*将坐标点连接成封闭图形*/
void draw(Mat Img1, Mat Img2)
{
	for (int i = 0;i < Img1.rows;i++)
	{
		if (i == Img1.rows - 1)
		{
			Vec2i point1 = Img1.at<Vec2i>(i);
			Vec2i point2 = Img1.at<Vec2i>(0);
			line(Img2, point1, point2, Scalar(255, 255, 255), 2, 8, 0);
			break;
		}
		Vec2i point1 = Img1.at<Vec2i>(i);
		Vec2i point2 = Img1.at<Vec2i>(i + 1);
		line(Img2, point1, point2, Scalar(255, 255, 255), 5, 8, 0);
	}
}

/*多边形拟合曲线绘制近似轮廓*/
Mat approx(Mat&Img_src)
{
	Mat Img_dst = Mat::zeros(Img_src.size(), CV_8UC1);

	vector<vector<Point>>contours;
	vector<Vec4i>hierarchy;
	findContours(Img_src, contours, hierarchy, 0, 2, Point());

	for (int t = 0;t < contours.size();t++)
	{
		Mat app;
		approxPolyDP(contours[t], app, 15, true);
		draw(app, Img_dst);
	}
	return Img_dst;
}

5.凸包检测+重心+ 鼠标操作

5.1convexHull()函数原型

在图形学中,将二维平面上的点集最外层的点连接起来构成的凸多边形称为凸包。
本实验通过用于物体凸包检测的convexHull()函数,对手部轮廓进一步进行多边形逼近,进而获得一个凸多边形。找到重心位置,通过比较凸包的顶点与重心的y轴坐标,得到纵坐标大于重心的凸包的顶点,再规定凸点间距离范围,得到指尖数量。

convexHull()函数原型
convexHull(	InputArray		points,
OutputArray	hull,
bool			clockwise = false,
bool			returnPoints = true

①points:输入的二维点集或轮廓坐标,数据类型为vector或者Mat。
②hull:输出的凸包的顶点的坐标或者索引,数据类型为vector或者vector。
③clockwise:方向标志。当参数取值为true时,凸包顺序为顺时针方向;当参数取值为false时,凸包顺序为逆时针方向。
④returnPoints:输出数据的类型标志。当参数取值为true时,第二个参数输出的结果是凸包顶点的坐标,数据类型为vector;当参数取值为false时,第二个参数输出的结果是凸包顶点的索引,数据类型为vector。

5.2moments()函数原型

moments()函数原型
moments(	InputArray		array,
bool			binaryImage = false
)

①array:计算矩的区域二维像素坐标集合或者单通道的CV_8U图像。
②binaryImage:是否将所有非零像素值视为1的标志,该标志只在第一个参数设置为图像类型的数据时才会起作用。
moments()函数会返回一个Moments类的变量。Moments类中含有几何矩、中心矩及归一化的几何矩的数值属性。

5.3Mouse_event()函数原型

本实验通过mouse_event()函数来代替鼠标操作。

Mouse_event()函数原型
mouse_event(	DWORD		dwFlags,
DWORD		dx,
DWORD		dy,
DWORD		dwData,
ULONG_PTR	dwExtraInfo
)

①dwFlags:标志位集,指定点集按钮和鼠标动作。
②dx:指定鼠标沿x轴的绝对位置或者从上次鼠标事件产生以来移动的数量。
③dy:指定鼠标沿y轴的绝对位置或者从上次鼠标事件产生以来移动的数量。
④dwData:如果dwFlags为MOUSEEVENT_WHEEL,则dwData指定鼠标轮移动的数量。正值表示鼠标轮向前移动,即远离用户的方向;负值表示鼠标轮向后移动,即朝向用户。如果dwFlags不是MOUSEEVENT_WHEEL,则dwData应为0。
⑤dwExtrafo:指定与鼠标事件相关的附加32位值。

鼠标动作标志参数含义
MOUSEEVENT_ABSOLUTEdx和dy参数含有规范化的绝对坐标。如果不设置,这些参数含有相对数据:相对于上次位置的改动位置
MOUSEEVENT_MOVE鼠标移动
MOUSEEVENT_LEFTDOWN鼠标左键按下
MOUSEEVENT_LEFTUP鼠标左键松开
MOUSEEVENT_RIGHTDOWN鼠标右键按下
MOUSEEVENT_RIGHTUP鼠标右键松开
MOUSEEVENT_MIDLEDOWN鼠标中键按下
MOUSEEVENT_MIDLEUP鼠标中键松开
MOUSEEVENT_WHEEL鼠标轮被滚动,如果鼠标有一个滚轮,滚轮数量由dwData给出

5.5 Code

/*凸包检测+重心+ 鼠标操作 */
Mat CH(Mat&Image_src)
{
	/*轮廓*/
	Mat ImageOut = approx(Image_src);
	vector<vector<Point>>contours;
	vector<Vec4i>hierarchy;
	findContours(ImageOut, contours, hierarchy, 0, 2, Point());

	/*画重心*/
	Moments moment = moments(ImageOut, true);
	Point center(moment.m10 / moment.m00, moment.m01 / moment.m00);
	circle(ImageOut, center, 8, Scalar(255, 255, 255), -1);

	int dist;
	int sum = 0;
	for (int t = 0;t < contours.size();t++)
	{
		/*凸包检测*/
		vector<Point>hull;
		convexHull(contours[t], hull);

		for (size_t i = 0;i < hull.size();i++)
		{
			int a = hull.size();

			if (i != hull.size() - 1)
				dist = distance(hull[i], hull[i + 1]);
			int dist1 = distance(hull[i], center);
			if (hull[i].y < center.y&&dist>20)
			{
				circle(ImageOut, hull[i], 15, Scalar(255, 255, 255), 2, 8, 0);
				sum += 1;
			}

			if (i == hull.size() - 1)
			{
				line(ImageOut, hull[i], hull[0], Scalar(255, 255, 255), 5, 8, 0);
				break;
			}
			line(ImageOut, hull[i], hull[i + 1], Scalar(255, 255, 255), 5, 8, 0);
		}
	}
	cout << sum << endl;

	if (sum == 1)
	{
		mouse_event(MOUSEEVENTF_LEFTDOWN | MOUSEEVENTF_LEFTUP, 0, 0, 0, 0);
		string str3 = "Left";
		putText(ImageOut, str3, center, 0, 2, Scalar(255, 255, 255), 4, 8);
		waitKey(0);

	}
	if (sum == 2)
	{
		mouse_event(MOUSEEVENTF_LEFTDOWN | MOUSEEVENTF_LEFTUP, 0, 0, 0, 0);
		mouse_event(MOUSEEVENTF_LEFTDOWN | MOUSEEVENTF_LEFTUP, 0, 0, 0, 0);
		string str1 = "Double click";
		putText(ImageOut, str1, center, 0, 2, Scalar(255, 255, 255), 4, 8);
	}
	if (sum == 3)
	{
		mouse_event(MOUSEEVENTF_RIGHTDOWN | MOUSEEVENTF_RIGHTDOWN, 0, 0, 0, 0);
		string str2 = "Right";
		putText(ImageOut, str2, center, 0, 2, Scalar(255, 255, 255), 4, 8);
		waitKey(0);
	}
	return	ImageOut;
}

6.主函数 摄像头调用

6.1摄像头调用

OpenCV中为读取视频文件和调用摄像头而设计了VideoCapture类。视频文件由专门的视频读取函数进行视频读取,并将每一帧图像保存到Mat类矩阵中。
本实验通过VideoCapture类直接调用笔记本内置摄像头。

VideoCapture类调用摄像头构造函数
VideoCapture( int		index,
Int		apiPreference
)

①index:需要打开的摄像头设备的ID。
②airPreference:读取数据时设置的属性。

6.2 Code

int main()
{
	Introduce();
	/*调用摄像头*/
	VideoCapture capture(0);
	/*检查是否成功打开*/
	if (!capture.isOpened())
	{
		cout << "摄像头打开失败T_T";
		return -1;
	}

	while (1) {
		Mat In;
		capture >> In;

		Mat A = skin(In);
		Mat B = Floodfill(A);
		Mat Out = CH(B);

		namedWindow("Result", WINDOW_NORMAL | WINDOW_KEEPRATIO);imshow("Result", Out);
		waitKey(2);
	}
	return 0;
}

7.代码中的其他API函数

7.1 getStructuringElement()函数原型

getStructuringElement(	int			shape,
Size		ksize,
Point		anchor = Point(-1-1)

①shape:生成结构元素的种类,可选参数及其含义如表所示。
②ksize:结构元素的尺寸。
③anchor:中心点的位置,默认为结构元素的几何中心。
标志参数 简记 作用
MORPH_RECT 0 矩形结构元素,所有元素都为1
MORPH_CROSS 1 十字结构元素,中间的列和行元素为1
MORPH_ELLIPSE 2 椭圆结构元素,矩形的内接椭圆元素为1

7.2 findContours()函数原型

FindCountours(	InputArray					image,
OutputArrayOfArrays		contours,
OutputArray				hierarchy,
int							mode,
int							method,
Point						offset = Point()

①image:输入图像,数据类型为CV_8U的单通道灰度图或二值化图像。
②contours:存放检测到的轮廓,每个轮廓中放着像素的坐标。数据类型为vector<vector>。
③hierarchy:存放各个轮廓之间的结构信息,数据类型为vector。
④mode:轮廓检测模式标志。
⑤method:轮廓逼近方法标志。
⑥offset:每个轮廓点移动的可选偏移量。

轮廓检测模式标志参数简记含义
RETR_EXTERNAL0只检测最外层轮廓
RETR_LIST1提取所有轮廓,并放在list中。检测的轮廓不建立等级关系
RETR_CCOMP2提取所有轮廓,并且将其组织为双层结构。顶层为连通域的外围边界,次层为孔的内层边界
RETR_TREE3提取所有轮廓,并重新建立网状的轮廓结构
轮廓逼近方法标志参数简记含义
CHAIN_APPROX_NONE1获取每个轮廓的每个像素,相邻两个点的像素位置相差1
CHAIN_APPROX_SIMPLE2压缩水平方向、垂直方向和对角线方向的元素,只保留该方向的终点坐标

7.3 circle()函数原型

circle(	InputOutputArray  	img,
Point					center,
int						radius,
const					Scalar &color,
int						thickness = 1,
int						lineType = LINE_8,
int						shift = 0

①img:需要绘制圆形的图像。
②center:圆形的圆心位置坐标。
③radius:圆形的半径,单位为像素。
④color:圆形的颜色。
⑤thickness:轮廓的宽度,如果数值为负,则绘制一个实心圆。
⑥lineType:边界类型。
⑦shift:中心坐标和半径数值中的小数位数。

7.4 line()函数原型

line(	InputOutputArray		img,
Point					pt1,
Point					pt2,
const					scalar & color,
int						thickness = 1,
int						lineType = LINE_8,
int						shift = 0

①pt1:直线起点在图像中的坐标。
②pt2:直线终点在图像中的坐标。
③color:直线的颜色。

7.5 namedWindow()函数

namedWindow(	const	String & winname,
int		flags = WINDOW_AUTOSIZE
)

①winname:窗口名称,用作窗口的标识符。
②flags:窗口属性设置标志。在默认的情况之下,窗口所加载的标志参数为“WINDOW_AUTOSIZE|WINDOW_KEEPRATIO|WINDOW_GUI_EXPANDED”。

窗口属性标志参数作用
WINDOW_NORMAL显示图像后,允许用户随意调整窗口大小
WINDOW_AUTOSIZE根据图像大小显示窗口,不允许用户调整大小
WINDOW_OPENGL创建窗口的时候会支持OpenGL
WINDOW_FULLSCREEN全屏显示窗口
WINDOW_FREERATIO调整图像尺寸以充满窗口
WINDOW_KEEPRATIO保持图像的比例
WINDOW_GUI_EXPANDED创建的窗口允许添加工具栏和状态栏
WINDOW_GUI_NORMAL创建没有状态栏和工具栏的窗口

7.6 imshow()函数

imshow(	const		String & winname,
InputArray 	mat
)

①winnam:要显示图像的窗口的名字,用字符串形式赋值。
②mat:要显示的图像矩阵。

8.参考文献

[1]贾建军.基于视觉的手势识別技术研究[D].哈尔滨工业大学.2008
[2]孟国庆.基于OpenCV的手势识别技术研究[D].西安科技大学.2014
[3]Gary Bradski Adrian Kaehler .学习OpenCV[M]. 于仕琪 刘瑞祯译. 北京:清华大学出版社.2014
[4]王天庆. Python人脸识别从入门到工程实践[M]. 北京:机械工业出版社.2019.4
[5]冯振 郭延宁 吕跃勇. OpenCV 4 快速入门[M].北京:人民邮电出版社.2020

  • 19
    点赞
  • 233
    收藏
    觉得还不错? 一键收藏
  • 10
    评论
好的,关于基于OpenCV实现手势识别与追踪的代码,我可以给你提供一个简单的示例代码,供你参考。 在这个示例代码中,我们将使用OpenCV的Contour Detection算法和Kalman Filter算法,来实现手掌的识别和追踪。 ```python import cv2 import numpy as np # 定义手势识别和追踪的类 class HandTracker: def __init__(self): self.cap = cv2.VideoCapture(0) self.kernel = np.ones((5,5),np.uint8) self.KF = cv2.KalmanFilter(4,2) self.KF.measurementMatrix = np.array([[1,0,0,0],[0,1,0,0]],np.float32) self.KF.transitionMatrix = np.array([[1,0,1,0],[0,1,0,1],[0,0,1,0],[0,0,0,1]],np.float32) self.KF.processNoiseCov = np.array([[1,0,0,0],[0,1,0,0],[0,0,1,0],[0,0,0,1]],np.float32) * 0.03 self.KF.measurementNoiseCov = np.array([[1,0],[0,1]],np.float32) * 0.1 def run(self): while True: ret, frame = self.cap.read() if not ret: break # 预处理图像 gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) blur = cv2.GaussianBlur(gray,(5,5),0) thresh = cv2.threshold(blur, 0, 255, cv2.THRESH_BINARY+cv2.THRESH_OTSU)[1] dilation = cv2.dilate(thresh,self.kernel,iterations = 1) erosion = cv2.erode(dilation,self.kernel,iterations = 1) # 检测手掌 contours, hierarchy = cv2.findContours(erosion, cv2.RETR_TREE, cv2.CHAIN_APPROX_SIMPLE) if len(contours) > 0: max_contour = max(contours, key=cv2.contourArea) if cv2.contourArea(max_contour) > 1000: x,y,w,h = cv2.boundingRect(max_contour) cv2.rectangle(frame,(x,y),(x+w,y+h),(0,255,0),2) # 更新Kalman Filter self.KF.correct(np.array([[x+w/2],[y+h/2]],np.float32)) prediction = self.KF.predict() px, py = prediction[0][0], prediction[1][0] cv2.circle(frame, (int(px), int(py)), 5, (0,0,255), -1) cv2.imshow('frame', frame) if cv2.waitKey(1) & 0xFF == ord('q'): break self.cap.release() cv2.destroyAllWindows() # 创建HandTracker对象并运行 ht = HandTracker() ht.run() ``` 这个示例代码中,我们首先定义了一个HandTracker类,包了摄像头的初始化、Kalman Filter的初始化、手势识别和追踪的实现等功能。然后,我们创建了一个HandTracker对象,并调用run方法来运行整个程序。 在run方法中,我们首先使用OpenCV提供的函数,对捕获的图像进行预处理,包括图像的灰度化、高斯模糊、二值化、腐蚀和膨胀等操作。然后,我们使用Contour Detection算法,检测图像中的轮廓,并找到面积最大的轮廓,来判断是否出现了手掌。如果出现了手掌,我们使用Kalman Filter算法,对手掌的位置进行预测和追踪,并在图像上画出手掌的矩形框和预测位置的圆形。 以上是一个简单的基于OpenCV实现手势识别与追踪的示例代码。当然,具体的实现还需要根据具体的应用场景和需求来进行调整和优化。希望对你有所帮助。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值