一.实验内容
使用opencv-python完成人脸检测实验,要求可以在被检测图像中,框选人脸所在位置
二.实验步骤
本实验对应的python文件为FaceDetection.py,它是进行人脸识别的第一步,由于使用OpenCV提供的接口,使得实现过程大大简化,其中设计HaarCascade人脸检测器的配制方法,基本步骤分为以下三步:
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-XIVjKmMQ-1591925725279)(/home/tina/.config/Typora/typora-user-images/image-20191231165106154.png)]
本实验的重点时第二部接口的调用方法,下面我们用代码对其进行分析,在FaceDetection文件中,调用接口主要过程是:
- 加载下载好的存储在指定位置的haar人脸检测器参数。调用接口cv2.CascadeClassifier进行加载。
- 对摄像头拍下的图片进行灰度处理,更便于进行人脸检测。调用接口cv2.cvtColor
- 【关键部分】对绘图图像进行检测,获得人脸的位置。调用接口classfier.detectMultiScale
def FaceDetection(window_name="get face", camera_idx=0):
'''
截取并存储图片
:param window_name: 窗口名字
:param camera_idx: 摄像头的标签
:param catch_pic_num: 需要的图片数目-1
:param path_name: 图片存储的路径
:return:
'''
#定义窗口名字
cv2.namedWindow(window_name)
# 视频来源,可以来自一段已存好的视频,也可以直接来自USB摄像头
cap = cv2.VideoCapture(camera_idx)
# 告诉OpenCV使用人脸识别分类器,导入模型
classfier = cv2.CascadeClassifier("model/haarcascade_frontalface_alt.xml")
# 识别出人脸后要画的边框的颜色,RGB格式, color是一个不可增删的数组
color = (0, 255, 0)
#记录当前数目
num = 0
#循环读取图片,判断摄像头是不是开着
while cap.isOpened():
ok, frame = cap.read() # 读取一帧数据,这里的数据是矩阵形式
#如果读取失败
if not ok:
break
gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) # 将当前桢图像转换成灰度图像
# 人脸检测,1.2和2分别为图片缩放比例和需要检测的有效点数(有效人脸个数)
faceRects = classfier.detectMultiScale(gray, scaleFactor=1.2, minNeighbors=3, minSize=(32, 32))
#这里可以打印一下有效的人脸个数
#这里可以识别多张图片
if len(faceRects) > 0: # 大于0则检测到人脸
for faceRect in faceRects: # 单独框出每一张人脸,但这里想要的是只找出一张人脸
#矩形框具体的位置
x, y, w, h = faceRect
# 画出矩形框
cv2.rectangle(frame, (x - 10, y - 10), (x + w + 10, y + h + 10), color, 2)
# 显示图像,这里是等到所有框都画好之后再进行显示
cv2.imshow(window_name, frame)
#等待按键操作,如果10秒钟内没有按键,则继续,如果按下了q则停止
c = cv2.waitKey(10)
if c & 0xFF == ord('q'):
break
# 释放摄像头并销毁所有窗口
cap.release()
cv2.destroyAllWindows()
return None