人脸关键点检测 face keypoint detect

人脸关键点检测

New update

最近优化了一下算法,有了比较大的改进,最后的结果也不错,在WFLW 上应该算是SOTA了,NME 3.95.

一. 几个优化点

  1. 思路取自目标检测.
  2. 损失函数,adaptive wing loss +wing loss.
  3. 代码也大概重构了一下子,采用onnxruntime 推理,模型转换也会更方便。
  4. 工程直接调用也更方便,pip install 就行

next step:
如果时间充分,可能再做一下其他数据集。

二. 简介

2d人脸关键点检测目前已经属于解决的比较好的问题了。也是落地的相对比较好的项目之一。
学术上广泛使用的数据集是300W 以及300VW, 为68个关键点。商业化应用的是各厂商自己标注的大规模数据集,肯定表现要更好。

source code

预训练模型:仓库的pretrained 目录下

本文主要给大家一个思路,如何做一个表现相对稳定的人脸关键点检测算法。效果可以见下图demo。

demo

请添加图片描述

三. Metric

WLFW test set.

WFLWNMEFlops(G)Params(M)PoseExp.Ill.Mu.Occ.Blurpretrained
Student@1284.800.353.258.535.004.614.815.805.36skps
Teacher@1284.171.3811.537.144.324.014.034.984.68skps
Student@2564.351.393.257.534.524.164.215.344.93skps
Teacher@2563.955.5311.537.004.003.813.784.854.54skps

四. 结构

该文的实现,比较简单,思路取自目标检测。 heatmap 负责预测哪个grid 是正样本,另外一个head 预测具体的坐标。坐标采用anchor point 的方式encode, 这个方式可以很好的缓解量化误差的问题。

而且heatmap方式对比直接回归有更好的位置信息,对于坐标回归的方式,GAP这个操作还是很影响精度的。

而且heatmap 对于数据更高效,也不需要额外的数据采样进行扩充。思路更简单了。

Train

训练的话,请在 TRAIN/face_landmark 这个目录下工作

主要的原理就是上个章节所叙述,具体实现可以去看代码。

  • 1 下载数据 并在train_config.py 中指定好数据地址

  • 2 bash run.sh

visualization

`python vis.py --model pks.pth

ps

Just mail me 😃 2120140200@mail.nankai.edu.cn , for any question.

  • 20
    点赞
  • 98
    收藏
    觉得还不错? 一键收藏
  • 34
    评论
以下是使用Python和OpenCV库实现通过人脸关键点实现眼睛和嘴巴识别的示例代码: ```python import cv2 # 加载人脸检测器和关键点检测face_detector = cv2.CascadeClassifier("haarcascade_frontalface_default.xml") keypoint_detector = cv2.face.createFacemarkLBF() keypoint_detector.loadModel("lbfmodel.yaml") # 打开摄像头 cap = cv2.VideoCapture(0) while True: ret, frame = cap.read() if not ret: break # 将图像转换为灰度图像 gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) # 检测人脸 faces = face_detector.detectMultiScale(gray, scaleFactor=1.1, minNeighbors=5) # 检测人脸关键点 ok, keypoints = keypoint_detector.fit(gray, faces) # 绘制人脸关键点 for i, face_keypoints in enumerate(keypoints): for x, y in face_keypoints[0]: cv2.circle(frame, (x, y), 1, (0, 255, 0), -1) # 根据人脸关键点定位眼睛和嘴巴 left_eye = face_keypoints[0][36:42] right_eye = face_keypoints[0][42:48] mouth = face_keypoints[0][48:68] # 计算眼睛和嘴巴的状态 left_eye_open = is_eye_open(left_eye) right_eye_open = is_eye_open(right_eye) mouth_open = is_mouth_open(mouth) # 根据状态绘制不同的框和文本 if left_eye_open and right_eye_open: cv2.rectangle(frame, (faces[i][0], faces[i][1]), (faces[i][0]+faces[i][2], faces[i][1]+faces[i][3]), (0, 255, 0), 2) cv2.putText(frame, "Eyes open", (faces[i][0], faces[i][1] - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 255, 0), 2) else: cv2.rectangle(frame, (faces[i][0], faces[i][1]), (faces[i][0]+faces[i][2], faces[i][1]+faces[i][3]), (0, 0, 255), 2) cv2.putText(frame, "Eyes closed", (faces[i][0], faces[i][1] - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 0, 255), 2) if mouth_open: cv2.rectangle(frame, (faces[i][0], faces[i][1]), (faces[i][0]+faces[i][2], faces[i][1]+faces[i][3]), (0, 255, 0), 2) cv2.putText(frame, "Mouth open", (faces[i][0], faces[i][1] + faces[i][3] + 20), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 255, 0), 2) else: cv2.rectangle(frame, (faces[i][0], faces[i][1]), (faces[i][0]+faces[i][2], faces[i][1]+faces[i][3]), (0, 0, 255), 2) cv2.putText(frame, "Mouth closed", (faces[i][0], faces[i][1] + faces[i][3] + 20), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 0, 255), 2) cv2.imshow("frame", frame) if cv2.waitKey(1) == ord('q'): break cap.release() cv2.destroyAllWindows() ``` 上述代码中使用了`haarcascade_frontalface_default.xml`和`lbfmodel.yaml`文件,分别用于人脸检测人脸关键点检测。在绘制人脸关键点时,使用了`cv2.circle`函数绘制圆形,并根据关键点的位置和状态绘制不同的框和文本。具体的眼睛和嘴巴状态计算函数`is_eye_open`和`is_mouth_open`可以自行实现。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 34
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值