摄像头测距实现

普通摄像头利用人脸识别技术与景深应用实现测距

今天看到有人问能不能用摄像头来检测距离,我刚开始觉得这几乎是个不可能的事情,大家都知道这几天都不让出门,就窝在家里想这个事。灵光一现,为什么不将人脸识别与测距结合起来就可以实现了。(具体算法原理暂不公开)。人脸识别可以使用opencv自带的,也可以使用开源的。我使用的是seetaaface2开源的检测算法,主要是识别较快,也比较准,在i53320上可以达到实时的要求。

随着人的移动,会实时显示人脸与摄像头的距离。当然不同的摄像头要设置不同的初始参数,后面会更新算法,以适应更多摄像头。
开发工具qt5.12+opencv4.01+seetaface2.0(人脸检测模块)
本应用虽然取得了初步成功,但只是个初级模型,还不完善,算法成熟后会公开原理及实现细节。

实现效果:http://v.youku.com/v_show/id_XMTU2Mzk0NjU3Ng==.html 如何在你的电脑上运行这个程序? 1,它需要cvblobslib这一个opencv的扩展库来实现检测物体与给物体画框的功能,具体安装信息请见: http://dsynflo.blogspot.com/2010/02/cvblobskib-with-opencv-installation.html,当你配置好cvblobslib之后,你可以用这一的程序进行测试:http://dl.dropbox.com/u/110310945/Blobs%20test.rar 2,视频中两个摄像头之间的距离是6cm,你可以根据你摄像头的型号,来选择合适的距离来达到最好的效果。 3,在进行测距之前,首先需要对摄像头进行标定,那么如何标定呢? 在stdafx.h中把"#define CALIBRATION 0"改成 “#define CALIBRATION 1”表示进行标定,标定之后,你就可以在工程目录下的"CalibFile" 文件夹中得到标定信息的文件。如果标定效果还不错,你就可以吧"#define CALIBRATION " 改成0,以后就不需要再标定,直接使用上一次的标定信息。你还需要把"#define ANALYSIS_MODE 1"这行代码放到stdafx.h中。 4,视频中使用的是10*7的棋牌格,共摄录40帧来计算摄像头的各种参数,如果你像使用其他棋盘格,可以在 "StereoFunctions.cpp"文件中修改相应参数。 5,如果你无法打开摄像头,可以在 "StereoGrabber.cpp"文件中修改代码“cvCaptureFromCAM(index)”中index的值。 6,About computing distance: it interpolates the relationship between depth-value and real-distance to third degree polynomial. So i used excel file "interpolation" for interpolation to find k1 to k4, you should find your own value of these parameters. 7,你可以通过调整控制窗口中各个参数的滑块,从而来得到更好的视差图。 8,在目录下的”distance“文件夹中,有计算距离信息的matlab代码。 9,如果你想了解基本的理论,可以看一下这个文档:http://scholar.lib.vt.edu/theses/available/etd-12232009-222118/unrestricted/Short_NJ_T_2009.pdf 视频中环境:vs2008,opencv2.1
以下是一个简单的双目摄像头测距的代码示例: ```python import cv2 import numpy as np # 定义摄像头 cap_left = cv2.VideoCapture(1) cap_right = cv2.VideoCapture(2) # 设置摄像头分辨率 cap_left.set(cv2.CAP_PROP_FRAME_WIDTH, 640) cap_left.set(cv2.CAP_PROP_FRAME_HEIGHT, 480) cap_right.set(cv2.CAP_PROP_FRAME_WIDTH, 640) cap_right.set(cv2.CAP_PROP_FRAME_HEIGHT, 480) # 定义相机参数 focal_length = 3.04 baseline = 0.073 while True: # 读取图像 ret_left, img_left = cap_left.read() ret_right, img_right = cap_right.read() # 将图像转换为灰度图 gray_left = cv2.cvtColor(img_left, cv2.COLOR_BGR2GRAY) gray_right = cv2.cvtColor(img_right, cv2.COLOR_BGR2GRAY) # 利用SIFT算法提取关键点和特征描述子 sift = cv2.xfeatures2d.SIFT_create() kp_left, des_left = sift.detectAndCompute(gray_left, None) kp_right, des_right = sift.detectAndCompute(gray_right, None) # 匹配关键点 bf = cv2.BFMatcher() matches = bf.knnMatch(des_left, des_right, k=2) # 筛选匹配点对 good = [] for m, n in matches: if m.distance < 0.75 * n.distance: good.append(m) # 计算深度信息 if len(good) > 10: # 提取匹配点的坐标 pts_left = np.float32([kp_left[m.queryIdx].pt for m in good]).reshape(-1, 1, 2) pts_right = np.float32([kp_right[m.trainIdx].pt for m in good]).reshape(-1, 1, 2) # 计算视差 disparity = pts_left[:, 0, 0] - pts_right[:, 0, 0] # 计算深度 depth = focal_length * baseline / disparity depth = np.clip(depth, 0, 10) # 限制深度在0-10米之间 # 在左图上绘制深度信息 for i, pt in enumerate(pts_left): cv2.circle(img_left, tuple(pt[0]), 3, (0, 0, 255), -1) cv2.putText(img_left, '{0:.3f}m'.format(depth[i]), tuple(pt[0]), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 255, 0), 1) # 显示图像 cv2.imshow('left', img_left) cv2.imshow('right', img_right) # 按下q键退出程序 if cv2.waitKey(1) == ord('q'): break # 释放摄像头并关闭窗口 cap_left.release() cap_right.release() cv2.destroyAllWindows() ``` 在这个示例代码中,我们利用了OpenCV提供的SIFT算法来提取图像中的关键点和特征描述子,并利用BFMatcher算法进行关键点匹配。然后,我们根据匹配点的坐标计算视差,并利用相机参数计算深度信息。最后,我们在左图上绘制深度信息,并将结果显示在窗口中。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值