opencv实时识别指定物体:windows下基于CPU训练+多平台部署

7 篇文章 1 订阅
6 篇文章 0 订阅

1.windows系统下需要编译安装opencv3.4(注意opencv4.1没有分类器)遇到windows下的opencv编译问题参考:

windows7+vs2019编译opencv

注意:本机编译的opencv_createsamples.exe程序和opencv_traincascade.exe程序只有通过本机编译才能在本机正常使用。

2.然后按照这个教程执行:

opencv实时识别指定物体

注意:这个训练的话得3到4个小时

另外基于opencv的在训练时间和精度上都不如基于tensorflow的。

3.遇到opencv_createsamples.exe程序和opencv_traincascade.exe程序的参数解释,通过以下教程解决:

使用Opencv的opencv_traincascade来训练属于自己的分类器,检测自己想检测的东西,666,从使用到放弃。

级联分类器训练


最近做了一个目标检测的应用,通过大量的待检测目标的样本进行训练,得到分类器;然后输入测试视频,看分类器的检测结果。主要应用了OpenCV自带的工具:【注意opencv版本为3.4才行】

1.opencv\build\x86\vc10\bin下的opencv_createsamples.exe

2.opencv\build\x86\vc10\bin下的opencv_traincascade.exe

训练的算法是adaboost级联分类器。关于adaboost的算法讲解,这篇博文有不错的讲解:http://blog.csdn.net/mousever/article/details/52038198

opencv_traincascade提供了三种不同的特征提取方式:Haar,LBP,HOG。在本次应用中,待检测的目标如下图蓝色椭圆中所示:

在这里插入图片描述
整体的步骤流程如下:

1、 正负样本的创建;

2、 利用样本,训练分类器;

3、 利用训练好的分类器进行目标检测。

训练样本分为正样本和反样本。正样本是指待检测的目标样本(例如汽车,人脸,标志物等),反例样本指不包含正样本的背景图片(需要注意的是,这些反例样本尽量是出现正样本场景中的背景图片),所有的样本图片都被归一化为同样的尺寸大小(例如,20x20、20x30)。 在本次演示工程中,通过摄像头在不同光照、不同旋转角度下拍摄待检测物体的照片,然后对图片进行抠图,得到正样本。得到的样本数量约为5001000个。然后拍摄正样本可能的背景画面,得到负样本数量约为10001500个。得到正样本后,利用OpenCV函数库中的CreateSamples.exe工具生成正样本描述文件。这个文件是接下来训练要用的,可以看做是正样本特征的第一步提取。关于opencv_createsamples.exe的运行命令参数,可以查询此篇博客:http://blog.csdn.net/wuxiaoyao12/article/details/39227189。
opencv_createsamples命令为:

opencv_createsamples.exe -info info.txt -vec vector.vec -num 700 -w 20 -h 30

训练阶段算法采用了adaboost(自适应增强)算法,这是一种级联分类器的算法,将多个性能较弱的分类器级联,组合成一种性能强的分类器。它的自适应在于:前一个基本分类器分错的样本会得到加强,加权后的全体样本再次被用来训练下一个基本分类器。同时,在每一轮中加入一个新的弱分类器,直到达到某个预定的足够小的错误率或达到预先指定的最大迭代次数。OpenCV提供了开源的adaboost算法库,可以比较方便的调用;而对于应用,比较重要的一点是特征的选取。通常,样本可以用Haar、HOG、LBP等特征描述,例如人脸,用Haar效果比较好,而对于行人,用HOG效果比较好。在应用时,应分析物体特征,选择较好的特征提取算法。opencv_traincascade命令为:

opencv_traincascade.exe -data data/cascade -vec data/vector.vec -bg 
negative/infofile.txt -numPos 600 -numNeg 1000
 -numStages 20 -featureType LBP -mode ALL -w 20 -h 30 

值得注意的是其中的numPos参数,并非为createsamples阶段采用的700,否则会报错。建议为num的0.8~0.9。另外经过测试,对于featureType参数,LBP比HAAR效果相差无几,但训练速度快了很多。

使用Python和OpenCV进行实时物体识别,可以按照以下步骤进行: 1. 安装Python和OpenCV:首先,确保已经成功安装了Python和OpenCV库。可以使用pip工具通过终端或命令提示符运行以下命令来安装OpenCV:pip install opencv-python 2. 引入所需库:在Python脚本的开头,导入必要的库。这包括cv2和numpy。代码示例:import cv2 import numpy as np 3. 读取视频输入:使用cv2.VideoCapture函数来读取视频输入。代码示例:cap = cv2.VideoCapture(0) # 0表示摄像头 4. 加载物体图像:使用cv2.imread函数加载要识别物体的图像。代码示例:object_image = cv2.imread("object.jpg") 5. 定义特征提取器:使用OpenCV的ORB(Oriented FAST and Rotated BRIEF)特征提取器来检测物体的关键特征点。代码示例:orb = cv2.ORB_create() 6. 提取关键特征:使用ORB特征提取器来计算物体图像的关键特征和描述符。代码示例:kp_object, des_object = orb.detectAndCompute(object_image, None) 7. 启动循环:使用一个无限循环,来进行连续的实时物体识别。代码示例:while True: 8. 读取实时视频帧:在循环中,使用cap.read()函数来读取每一帧的视频。代码示例:ret, frame = cap.read() 9. 提取当前帧的关键特征和描述符:使用ORB特征提取器来计算当前帧的关键特征和描述符。代码示例:kp_frame, des_frame = orb.detectAndCompute(frame, None) 10. 特征匹配和筛选:使用OpenCV的BFMatcher来进行关键特征的匹配,并筛选出最佳匹配。代码示例:bf = cv2.BFMatcher(cv2.NORM_HAMMING, crossCheck=True) matches = bf.match(des_object, des_frame) matches = sorted(matches, key=lambda x: x.distance) 11. 绘制匹配结果:使用cv2.drawMatches函数,将匹配的关键特征点在图像上进行可视化。代码示例:matched_result = cv2.drawMatches(object_image, kp_object, frame, kp_frame, matches[:10], None, flags=2) 12. 显示结果:使用cv2.imshow函数,将识别结果显示在窗口中。代码示例:cv2.imshow("Result", matched_result) 13. 退出循环:当按下键盘上的任意键时,通过cv2.waitKey函数检测并退出循环。代码示例:if cv2.waitKey(1) & 0xFF == ord('q'): break 14. 释放资源:在结束程序之前,使用cap.release()函数来释放视频输入资源。代码示例:cap.release() 15. 关闭窗口:使用cv2.destroyAllWindows函数来关闭所有的显示窗口。代码示例:cv2.destroyAllWindows() 通过按照上述步骤,就可以实现使用Python和OpenCV进行实时物体识别了。可以根据具体需求,对整个流程进行调整和优化。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值