基于MediaPipe API实现骨骼识别

骨骼识别的应用场景

如今,当前疫情大环境之下。很多人,因为居家办公或者其他原因闷在家里不能外出健身。那么,借助骨骼识别和卷积神经网络模型,计算机视觉开发者可以通过相对应的API,结合相对轻量化一些的卷积神经网络模型,来构建如Keep这类的线上锻炼监督APP。

用户通过将摄像头对准自己,使得神经网络能过精确地通过人体骨骼框架,判断出用户是否有在“认认真真”的做运动。

骨骼网络也可以应用在3D模型构建中,通过将获取到的骨骼网络信息,与Unity虚幻等引擎中的3D模型进行动态绑定,即可得到属于自己的虚拟人物形象。

骨骼识别的实现原理

通过观察MediaPipe的官方文档,我们可以看到
MediaPipe模型概览
MediaPipe是通过两套深度神经网络:即基于GHUM模型的BlazePose和ResNet50模型的AlphaPose。

以下是MediaPipe官方对于模型的概述:

该检测器的灵感来自我们自己的轻量级BlazeFace模型,用于MediaPipe 人脸检测,作为人体检测器的代理。它明确地预测了两个额外的虚拟关键点,将人体中心、旋转和比例牢牢描述为一个圆圈。受莱昂纳多的《维特鲁威人》的启发,我们预测了一个人臀部的中点、包围整个人的圆的半径以及连接肩部和臀部中点的连线的倾斜角

在这里插入图片描述
另外,MediaPipie通过从GHUM模型中获取到33个定位点,用于对人体骨骼的完整检测,见下图:
在这里插入图片描述

环境准备

请确保你的Python环境中包含如下的库,才能顺利完成依赖处理并安装mediapipe

  • numpy
  • tensorflow
  • opencv

使用pip install mediapipe来安装mediapipe模块

pip install mediapipe

代码实战

我这里准备了一个特别视频用于检测骨骼API检测。但是在开始之前,我们要先把我们使用的模块导入进来

import time
import cv2
import mediapipe as mp
import sys

首先我们初始化MediaPipe标志点绘制器和MediaPipe姿态检测器

# 初始化MediaPipe绘图工具,以及样式
mp_drawing = mp.solutions.drawing_utils
mp_drawing_styles = mp.solutions.drawing_styles
mp_pose = mp.solutions.pose

初始化OpenCV窗口

# 初始化OpenCV窗口
window = cv2.namedWindow("Gi", cv2.WINDOW_FULLSCREEN)

使用cv2.VideoCapture()读取视频

cap = cv2.VideoCapture('data.flv')

设置捕获器的缓冲区大小

# 设置视频缓冲区
cap.set(cv2.CAP_PROP_BUFFERSIZE, 2)

初始化FPS计数器和FPS计数时间

# 初始化FPS计时器和计数器
fps_start_time = 0
fps = 0

定义图像处理函数processing()

# 定义Processing处理函数


def processing(image):
    # 使用cv2.putText绘制FPS
    cv2.putText(image, "FPS: {:.2f}".format(
        fps), (10, 85), cv2.FONT_HERSHEY_SIMPLEX, 3, (0, 255, 0), 3)
    # 使用image.flags.writeable = False将图像标记为只读,以加快处理速度
    image.flags.writeable = False
    # 使用cv2.resize将图像缩放到适合的尺寸
    image = cv2.resize(image, (640, 480))
    # 使用cv2.cvtColor将图像转换为RGB
    image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)
    # 使用MediaPipe Pose检测关键点
    results = pose.process(image)

    # 解锁图像读写
    image.flags.writeable = True
    # 将图像转换回BGR
    image = cv2.cvtColor(image, cv2.COLOR_RGB2BGR)
    # 使用draw_landmarks()绘制关键点
    mp_drawing.draw_landmarks(
        image,
        results.pose_landmarks,
        mp_pose.POSE_CONNECTIONS,
        landmark_drawing_spec=mp_drawing_styles.get_default_pose_landmarks_style())

    # 返回处理后的图像
    return image

初始化MediaPipe Pose类并开始进行骨骼检测

# 初始化MediaPipe Pose类
with mp_pose.Pose(
        min_detection_confidence=0.5,
        min_tracking_confidence=0.5) as pose:
    # 当视频打开时
    while cap.isOpened():
        # 读取视频帧和状态
        success, image = cap.read()
        # 如果初始化失败,则推出进程
        if not success:
            print("")
            exit(1)
        # 初始化FPS结束点计时器
        fps_end_time = time.time()
        # 计算FPS
        fps = 1.0 / (fps_end_time - fps_start_time)
        # 重置FPS开始点计时器
        fps_start_time = fps_end_time
        # 创建线程处理图像
        image = processing(image)
        # 显示图像
        cv2.imshow('Gi', image)
        # 按下q键退出
        if cv2.waitKey(1) & 0xFF == ord('q'):
            break
cap.release()

运行与效果

运行脚本

python Baby.py

运行结果如下图:
在这里插入图片描述

总结

MediaPipe提供众多的API供开发者使用,例如:目标识别,人脸识别,手部识别以及骨骼识别等等。通过内置的卷积神经网络模型进行探测,极大程度的节省了计算机视觉开发者的开发时间,提升了开发效率。
最后,向阳花木每逢春,ikun一直爱坤坤!

MediaPipe是一个跨平台的框架,由Google开发,主要用于实时计算机视觉和机器学习应用,包括人体检测、面部识别、手势识别等。在JavaScript中使用MediaPipe进行姿态识别,你可以利用其预训练的模型或自定义模型来捕捉设备上的视频流,并解析出人体的关键点位置,如头部、肩部、手肘和手腕等,从而计算姿态。 要使用MediaPipe进行JavaScript姿态识别,你需要: 1. **安装依赖**:首先确保你已经安装了Node.js环境,然后可以通过npm安装`mediapipejs`库,使用命令`npm install mediapipejs`. 2. **加载模型**:MediaPipe提供了预训练的人体检测和关键点识别模型。在JavaScript中,你可以通过`Pose`类加载预定义的模型,如` PoseNet`模型。 ```javascript import { Pose } from '@mediapipejs/pose-detection'; const pose = new Pose(); ``` 3. **处理视频流**:通过`pose.detect()`方法,传入摄像头或视频文件的解码器,实时处理视频帧并提取关键点。 ```javascript async function detectPose(videoElement) { const results = await pose.process(videoElement); const landmarks = results.pose_landmarks; // 这里可以获取到各个关键点的位置数据 } ``` 4. **显示结果**:通常会将关键点用图形表示出来,以便于用户理解。可以使用HTML5 Canvas或其他图形库来绘制。 ```javascript function drawLandmarks(landmarks) { // 在canvas上绘制关键点 } videoElement.addEventListener('play', async () => { try { await detectPose(videoElement); drawLandmarks(landmarks); } catch (error) { console.error(error); } }); ```
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Day(AKA Elin)

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值