cvtcolor函数_openCV 轮廓绘制实例报错解决(问题出在cvtcolor函数的使用)

OpenCV Error: Assertion failed (scn == 3 || scn == 4) in cv::cvtColor, file C:buildmaster_winpack-build-win64-vc14opencvmodulesimgprocsrccolor.cpp, line 11048

内容:openCV、《学习openCV3(中文版)》

环境:VS2015、C++

在学习轮廓检测部分时,把书中的一个使用trackbar改变阈值的实例(P365)自己敲了一下,编译通过,但是当我拖动trackbar时,就会出现如下报错:

8ad47475d212e908d9378647f1b34f4f.png

我在尝试中发现,当我不使用cvtcolor将RGB图转化为灰度图而是直接在imread中直接读取灰度图时,这一报错消失,因此可以判断是使用cvtcolor函数时出现了问题,出问题时cvtcolor这句代码如下:

cvtColor(g_gray, g_gray, CV_RGB2GRAY);

此时,cvtColor函数的输入输出是同一幅图像。

之后,我还是用imread读取一幅RGB图像进行进一步尝试,当我把cvtColor的输出放在一个新的Mat数组中时,该报错也消失了。

所以,最终发现问题出在了将cvtcolor函数的输出图像放在了输入图像中,但是具体为什么这样会出错,我暂时也不清楚为什么。我猜想是因为RGB和灰度图两种图像通道数不一样。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
大学生参加学科竞赛有着诸多好处,不仅有助于个人综合素质的提升,还能为未来职业发展奠定良好基础。以下是一些分析: 首先,学科竞赛是提高专业知识和技能水平的有效途径。通过参与竞赛,学生不仅能够深入学习相关专业知识,还能够接触到最新的科研成果和技术发展趋势。这有助于拓展学生的学科视野,使其对专业领域有更深刻的理解。在竞赛过程中,学生通常需要解决实际问题,这锻炼了他们独立思考和解决问题的能力。 其次,学科竞赛培养了学生的团队合作精神。许多竞赛项目需要团队协作来完成,这促使学生学会有效地与他人合作、协调分工。在团队合作中,学生们能够学到如何有效沟通、共同制定目标和分工合作,这对于日后进入职场具有重要意义。 此外,学科竞赛是提高学生综合能力的一种途径。竞赛项目通常会涉及到理论知识、实际操作和创新思维等多个方面,要求参赛者具备全面的素质。在竞赛过程中,学生不仅需要展现自己的专业知识,还需要具备创新意识和解决问题的能力。这种全面的综合能力培养对于未来从事各类职业都具有积极作用。 此外,学科竞赛可以为学生提供展示自我、树立信心的机会。通过比赛的舞台,学生有机会展现自己在专业领域的优势,得到他人的认可和赞誉。这对于培养学生的自信心和自我价值感非常重要,有助于他们更加积极主动地投入学习和未来的职业生涯。 最后,学科竞赛对于个人职业发展具有积极的助推作用。在竞赛中脱颖而的学生通常能够引起企业、研究机构等用人单位的关注。获得竞赛奖项不仅可以作为个人履历的亮点,还可以为进入理想的工作岗位提供有力的支持。
好的,下面是关于Python实现手势识别的讲解。 手势识别是计算机视觉领域的一个重要应用,可以应用于很多场景,比如手势控制智能家居、手势控制游戏等。本文介绍一种基于OpenCV和Python实现的手势识别框架。 首先,需要安装OpenCV库。可以通过pip install opencv-python安装。 接下来,需要准备一些训练数据。可以使用手势识别数据集,也可以自己录制一些手势视频作为训练数据。这里以自己录制的视频为例。 步骤如下: 1.读取视频帧 使用OpenCV读取视频帧,可以使用cv2.VideoCapture()函数。代码如下: ``` python import cv2 cap = cv2.VideoCapture(0) while True: ret, frame = cap.read() cv2.imshow('frame', frame) if cv2.waitKey(1) & 0xFF == ord('q'): break cap.release() cv2.destroyAllWindows() ``` 这里使用的是电脑自带的摄像头,如果使用外接摄像头,则需要将0改为1或者2等,表示摄像头的编号。 2.手势检测 对于每一帧图像,需要进行手势检测,可以使用肤色检测的方法。代码如下: ``` python import cv2 import numpy as np cap = cv2.VideoCapture(0) while True: ret, frame = cap.read() frame = cv2.flip(frame, 1) # 翻转图像 hsv = cv2.cvtColor(frame, cv2.COLOR_BGR2HSV) # 转换颜色空间 lower_skin = np.array([0, 20, 70], dtype=np.uint8) upper_skin = np.array([20, 255, 255], dtype=np.uint8) mask = cv2.inRange(hsv, lower_skin, upper_skin) # 掩膜 res = cv2.bitwise_and(frame, frame, mask=mask) # 图像与运算 cv2.imshow('frame', frame) cv2.imshow('mask', mask) cv2.imshow('res', res) if cv2.waitKey(1) & 0xFF == ord('q'): break cap.release() cv2.destroyAllWindows() ``` 这里使用的是HSV颜色空间,对肤色进行了阈值处理,得到掩膜,然后进行与运算,得到手部区域。 3.手势识别 对于手部区域,可以使用轮廓检测的方法,得到手部轮廓。代码如下: ``` python import cv2 import numpy as np cap = cv2.VideoCapture(0) while True: ret, frame = cap.read() frame = cv2.flip(frame, 1) # 翻转图像 hsv = cv2.cvtColor(frame, cv2.COLOR_BGR2HSV) # 转换颜色空间 lower_skin = np.array([0, 20, 70], dtype=np.uint8) upper_skin = np.array([20, 255, 255], dtype=np.uint8) mask = cv2.inRange(hsv, lower_skin, upper_skin) # 掩膜 res = cv2.bitwise_and(frame, frame, mask=mask) # 图像与运算 gray = cv2.cvtColor(res, cv2.COLOR_BGR2GRAY) # 灰度图像 ret, thresh = cv2.threshold(gray, 0, 255, cv2.THRESH_BINARY + cv2.THRESH_OTSU) # 二值化 _, contours, hierarchy = cv2.findContours(thresh, cv2.RETR_TREE, cv2.CHAIN_APPROX_SIMPLE) cnt = max(contours, key=cv2.contourArea) # 手部轮廓 cv2.drawContours(frame, [cnt], 0, (0, 255, 0), 2) # 绘制轮廓 cv2.imshow('frame', frame) cv2.imshow('mask', mask) cv2.imshow('res', res) if cv2.waitKey(1) & 0xFF == ord('q'): break cap.release() cv2.destroyAllWindows() ``` 这里使用的是cv2.findContours()函数进行轮廓检测,然后找到最大轮廓绘制手部轮廓。 4.手势分类 对于手部轮廓,可以使用机器学习算法进行分类,得到手势的类别。这里使用KNN算法进行分类。代码如下: ``` python import cv2 import numpy as np from sklearn.neighbors import KNeighborsClassifier cap = cv2.VideoCapture(0) k = 5 # KNN算法中的k值 hand_hist = None # 手部直方图 # 训练KNN分类器 def train_knn(): global hand_hist # 读取训练数据 with np.load('hand_data.npz') as data: train = data['train'] train_labels = data['train_labels'] # 计算手部直方图 hsv = cv2.cvtColor(train, cv2.COLOR_BGR2HSV) roi = np.zeros([1, 50, 50, 3], dtype=hsv.dtype) roi[0] = hsv[0:50, 0:50] hsv_hist = cv2.calcHist(roi, [0, 1], None, [180, 256], [0, 180, 0, 256]) cv2.normalize(hsv_hist, hsv_hist, 0, 255, cv2.NORM_MINMAX) hand_hist = hsv_hist.reshape([1, 180 * 256]) # 训练KNN分类器 knn = KNeighborsClassifier(n_neighbors=k) knn.fit(hand_hist, train_labels) return knn # 手势分类 def classify(frame, knn): global hand_hist hsv = cv2.cvtColor(frame, cv2.COLOR_BGR2HSV) dst = cv2.calcBackProject([hsv], [0, 1], hand_hist, [0, 180, 0, 256], 1) _, thresh = cv2.threshold(dst, 0, 255, cv2.THRESH_BINARY) thresh = cv2.merge((thresh, thresh, thresh)) res = cv2.bitwise_and(frame, thresh) gray = cv2.cvtColor(res, cv2.COLOR_BGR2GRAY) _, contours, hierarchy = cv2.findContours(gray, cv2.RETR_TREE, cv2.CHAIN_APPROX_SIMPLE) if len(contours) > 0: cnt = max(contours, key=cv2.contourArea) if cv2.contourArea(cnt) > 1000: x, y, w, h = cv2.boundingRect(cnt) cv2.rectangle(frame, (x, y), (x + w, y + h), (0, 255, 0), 2) roi = gray[y:y + h, x:x + w] roi = cv2.resize(roi, (50, 50), interpolation=cv2.INTER_LINEAR) roi = roi.reshape([1, 50 * 50]) result = knn.predict(roi) cv2.putText(frame, chr(result + 65), (x, y - 10), cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 255, 0), 2) return frame # 训练KNN分类器 knn = train_knn() while True: ret, frame = cap.read() frame = cv2.flip(frame, 1) # 翻转图像 if hand_hist is None: cv2.putText(frame, 'Press Space to calibrate', (50, 50), cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 0, 255), 2) else: frame = classify(frame, knn) cv2.imshow('frame', frame) if cv2.waitKey(1) & 0xFF == ord('q'): break elif cv2.waitKey(1) & 0xFF == ord(' '): hand_hist = None cap.release() cv2.destroyAllWindows() ``` 这里使用的是KNN算法进行分类,需要先训练KNN分类器。训练数据可以使用手势识别数据集,也可以使用自己录制的手势视频。这里使用的是手势识别数据集。训练数据需要保存到文件中,可以使用numpy.savez()函数进行保存,使用numpy.load()函数进行读取。 对于每一帧图像,需要先计算手部直方图,然后使用cv2.calcBackProject()函数进行反向投影,得到手部区域。对手部区域进行二值化、轮廓检测、矩形框选、手势分类等操作,最终得到手势类别。 以上就是基于OpenCV和Python实现手势识别的框架和实例讲解。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值