实战| 手把手教你实现俯卧撑实时计数:OpenCV+MediaPipe

《博主简介》

小伙伴们好,我是阿旭。专注于人工智能、AIGC、python、计算机视觉相关分享研究。
更多学习资源,可关注公-仲-hao:【阿旭算法与机器学习】,共同学习交流~
👍感谢小伙伴们点赞、关注!

《------往期经典推荐------》

一、AI应用软件开发实战专栏【链接】

项目名称项目名称
1.【人脸识别与管理系统开发2.【车牌识别与自动收费管理系统开发
3.【手势识别系统开发4.【人脸面部活体检测系统开发
5.【图片风格快速迁移软件开发6.【人脸表表情识别系统
7.【YOLOv8多目标识别与自动标注软件开发8.【基于YOLOv8深度学习的行人跌倒检测系统
9.【基于YOLOv8深度学习的PCB板缺陷检测系统10.【基于YOLOv8深度学习的生活垃圾分类目标检测系统
11.【基于YOLOv8深度学习的安全帽目标检测系统12.【基于YOLOv8深度学习的120种犬类检测与识别系统
13.【基于YOLOv8深度学习的路面坑洞检测系统14.【基于YOLOv8深度学习的火焰烟雾检测系统
15.【基于YOLOv8深度学习的钢材表面缺陷检测系统16.【基于YOLOv8深度学习的舰船目标分类检测系统
17.【基于YOLOv8深度学习的西红柿成熟度检测系统18.【基于YOLOv8深度学习的血细胞检测与计数系统
19.【基于YOLOv8深度学习的吸烟/抽烟行为检测系统20.【基于YOLOv8深度学习的水稻害虫检测与识别系统
21.【基于YOLOv8深度学习的高精度车辆行人检测与计数系统22.【基于YOLOv8深度学习的路面标志线检测与识别系统
23.【基于YOLOv8深度学习的智能小麦害虫检测识别系统24.【基于YOLOv8深度学习的智能玉米害虫检测识别系统
25.【基于YOLOv8深度学习的200种鸟类智能检测与识别系统26.【基于YOLOv8深度学习的45种交通标志智能检测与识别系统
27.【基于YOLOv8深度学习的人脸面部表情识别系统28.【基于YOLOv8深度学习的苹果叶片病害智能诊断系统
29.【基于YOLOv8深度学习的智能肺炎诊断系统30.【基于YOLOv8深度学习的葡萄簇目标检测系统
31.【基于YOLOv8深度学习的100种中草药智能识别系统32.【基于YOLOv8深度学习的102种花卉智能识别系统
33.【基于YOLOv8深度学习的100种蝴蝶智能识别系统34.【基于YOLOv8深度学习的水稻叶片病害智能诊断系统
35.【基于YOLOv8与ByteTrack的车辆行人多目标检测与追踪系统36.【基于YOLOv8深度学习的智能草莓病害检测与分割系统
37.【基于YOLOv8深度学习的复杂场景下船舶目标检测系统38.【基于YOLOv8深度学习的农作物幼苗与杂草检测系统
39.【基于YOLOv8深度学习的智能道路裂缝检测与分析系统40.【基于YOLOv8深度学习的葡萄病害智能诊断与防治系统
41.【基于YOLOv8深度学习的遥感地理空间物体检测系统42.【基于YOLOv8深度学习的无人机视角地面物体检测系统
43.【基于YOLOv8深度学习的木薯病害智能诊断与防治系统44.【基于YOLOv8深度学习的野外火焰烟雾检测系统
45.【基于YOLOv8深度学习的脑肿瘤智能检测系统46.【基于YOLOv8深度学习的玉米叶片病害智能诊断与防治系统
47.【基于YOLOv8深度学习的橙子病害智能诊断与防治系统48.【车辆检测追踪与流量计数系统
49.【行人检测追踪与双向流量计数系统50.【基于YOLOv8深度学习的反光衣检测与预警系统
51.【危险区域人员闯入检测与报警系统

二、机器学习实战专栏【链接】,已更新31期,欢迎关注,持续更新中~~
三、深度学习【Pytorch】专栏【链接】
四、【Stable Diffusion绘画系列】专栏【链接】
五、YOLOv8改进专栏【链接】持续更新中~~
六、YOLO性能对比专栏【链接】,持续更新中~

引言

本文主要是基于OpenCV+MediaPipe实现了视频与摄像头中人体俯卧撑实时计数。附完整源码与实现步骤讲解,供小伙伴们学习。感谢大家的点赞关注,更多干活内容持续更新~

实现效果

在这里插入图片描述

详细实现步骤讲解

1.导入必要的库

import cv2
import mediapipe as mp
import numpy as np
  • cv2:OpenCV库,用于视频处理和图像显示。
  • mediapipe:Google开发的用于处理媒体数据的跨平台解决方案。
  • numpy:用于科学计算的库,这里用于处理坐标和角度计算。

2.定义计算角度的函数

def calculate_angle(a, b, c):
    # 将输入点转换为numpy数组
    a = np.array(a)
    b = np.array(b)
    c = np.array(c)

    # 计算两个向量的角度差(弧度)
    radians = np.arctan2(c[1] - b[1], c[0] - b[0]) - np.arctan2(a[1] - b[1], a[0] - b[0])

    # 转换为角度(度)
    angle = np.abs(radians * 180.0 / np.pi)

    # 确保角度在0到360度之间
    if angle > 180.0:
        angle = 360 - angle

    return angle

这个函数接收三个点的坐标,计算这三个点构成的夹角,并返回角度值。

3.初始化MediaPipe的Pose实例

mp_drawing = mp.solutions.drawing_utils
mp_pose = mp.solutions.pose

# 初始化MediaPipe Pose实例
pose = mp_pose.Pose(min_detection_confidence=0.5, min_tracking_confidence=0.5)

这部分代码导入MediaPipe的绘图工具和Pose解决方案,并创建一个Pose对象,用于处理姿态检测。

4.开始视频流处理

cap = cv2.VideoCapture('01.mp4')

创建一个VideoCapture对象,从指定的视频文件中读取帧。

5. 初始化俯卧撑计数器变量

counter = 0
stage = None
max_angle = 160
min_angle = 60

定义了用于记录俯卧撑次数的counter,以及当前动作阶段stage,以及判断俯卧撑完成的最小和最大角度阈值。

6. 主循环,处理每一帧视频

while cap.isOpened():
    # 读取视频帧
    ret, frame = cap.read()

在循环中,处理每一帧视频,进行姿态检测、角度计算和俯卧撑计数。

7.姿态检测和角度计算

# Recolor image to RGB
image = cv2.cvtColor(frame, cv2.COLOR_BGR2RGB)
image.flags.writeable = False

# Make detection
results = pose.process(image)

这部分将视频帧转换为RGB格式,以便MediaPipe处理,然后进行姿态检测。

8. 计算关节坐标和角度

try:
    landmarks = results.pose_landmarks.landmark

        # 获取左肩、左肘和左腕的坐标
        shoulder = [landmarks[mp_pose.PoseLandmark.LEFT_SHOULDER.value].x,
                    landmarks[mp_pose.PoseLandmark.LEFT_SHOULDER.value].y]
        elbow = [landmarks[mp_pose.PoseLandmark.LEFT_ELBOW.value].x, landmarks[mp_pose.PoseLandmark.LEFT_ELBOW.value].y]
        wrist = [landmarks[mp_pose.PoseLandmark.LEFT_WRIST.value].x, landmarks[mp_pose.PoseLandmark.LEFT_WRIST.value].y]

从检测结果中提取关键点坐标,计算肘部到肩部的角度。

9.显示角度和更新计数器

if angle > max_angle:
    stage = "down"
if angle < min_angle and stage == 'down':
    stage = "up"
    counter += 1
    print(counter)

根据计算出的角度判断当前动作阶段,当达到特定条件时增加俯卧撑计数。

10. 在视频帧上绘制结果和计数信息

mp_drawing.draw_landmarks(image, results.pose_landmarks, mp_pose.POSE_CONNECTIONS,
                          mp_drawing.DrawingSpec(color=(245, 117, 66), thickness=2, circle_radius=2),
                          mp_drawing.DrawingSpec(color=(245, 66, 230), thickness=2, circle_radius=2)
                          )

cv2.imshow('Mediapipe Feed', image)

在图像上绘制关键点和连接线,同时显示俯卧撑计数和动作阶段

11. 用户退出循环

if cv2.waitKey(10) & 0xFF == ord('q'):
    break

如果用户按下’q’键,退出循环。

12. 结束视频处理

cap.release()
cv2.destroyAllWindows()

释放视频资源,关闭所有OpenCV窗口。

2.完整源码

#coding:utf-8
# 导入必要的库
import cv2
import mediapipe as mp
import numpy as np

# 定义计算角度的函数
def calculate_angle(a, b, c):
    # 将输入点转换为numpy数组
    a = np.array(a)
    b = np.array(b)
    c = np.array(c)

    # 计算两个向量的角度差(弧度)
    radians = np.arctan2(c[1] - b[1], c[0] - b[0]) - np.arctan2(a[1] - b[1], a[0] - b[0])

    # 转换为角度(度)
    angle = np.abs(radians * 180.0 / np.pi)

    # 确保角度在0到360度之间
    if angle > 180.0:
        angle = 360 - angle

    return angle

# 导入MediaPipe的绘图工具和Pose解决方案
mp_drawing = mp.solutions.drawing_utils
mp_pose = mp.solutions.pose

# 初始化MediaPipe Pose实例
pose = mp_pose.Pose(min_detection_confidence=0.5, min_tracking_confidence=0.5)

# 打开视频
cap = cv2.VideoCapture('1.mp4')

# 计数器变量
counter = 0
# 当前动作阶段
stage = None
# 完成俯卧撑的最大角度
max_angle = 160
# 准备开始俯卧撑的最小角度
min_angle = 60

while cap.isOpened():
    # 读取视频帧
    ret, frame = cap.read()

    # BGR图像转为RGB,便于MediaPipe处理
    image = cv2.cvtColor(frame, cv2.COLOR_BGR2RGB)
    image.flags.writeable = False

    # 使用MediaPipe进行姿态检测
    results = pose.process(image)

    # 重新转为BGR
    image.flags.writeable = True
    image = cv2.cvtColor(image, cv2.COLOR_RGB2BGR)

    # 获取姿态关键点
    try:
        landmarks = results.pose_landmarks.landmark

        # 获取左肩、左肘和左腕的坐标
        shoulder = [landmarks[mp_pose.PoseLandmark.LEFT_SHOULDER.value].x,
                    landmarks[mp_pose.PoseLandmark.LEFT_SHOULDER.value].y]
        elbow = [landmarks[mp_pose.PoseLandmark.LEFT_ELBOW.value].x, landmarks[mp_pose.PoseLandmark.LEFT_ELBOW.value].y]
        wrist = [landmarks[mp_pose.PoseLandmark.LEFT_WRIST.value].x, landmarks[mp_pose.PoseLandmark.LEFT_WRIST.value].y]

        # 计算并显示肘部到肩部的角度
        angle = calculate_angle(shoulder, elbow, wrist)
        cv2.putText(image, str(angle),
                    tuple(np.multiply(elbow, [640, 480]).astype(int)),
                    cv2.FONT_HERSHEY_SIMPLEX, 0.5, (255, 255, 255), 2, cv2.LINE_AA)
        print(angle)

        # 根据角度更新俯卧撑计数
        if angle > max_angle:
            stage = "down"
        if angle < min_angle and stage == 'down':
            stage = "up"
            counter += 1
            print(counter)

    except:
        pass

    # 在图像上绘制矩形框,用于显示计数和阶段
    cv2.rectangle(image, (0, 0), (225, 73), (245, 117, 16), -1)

    # 在矩形框内显示计数和阶段
    cv2.putText(image, 'COUNTER', (15, 22),
                cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 0, 0), 1, cv2.LINE_AA)
    cv2.putText(image, str(counter),
                (35, 60),
                cv2.FONT_HERSHEY_SIMPLEX, 1, (255, 255, 255), 2, cv2.LINE_AA)

    cv2.putText(image, 'STAGE', (135, 22),
                cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 0, 0), 1, cv2.LINE_AA)
    cv2.putText(image, stage,
                (130, 60),
                cv2.FONT_HERSHEY_SIMPLEX, 1, (255, 255, 255), 2, cv2.LINE_AA)

    # 在图像上绘制关键点和连接线
    mp_drawing.draw_landmarks(image, results.pose_landmarks, mp_pose.POSE_CONNECTIONS,
                              mp_drawing.DrawingSpec(color=(245, 117, 66), thickness=2, circle_radius=2),
                              mp_drawing.DrawingSpec(color=(245, 66, 230), thickness=2, circle_radius=2)
                              )

    # 显示处理后的图像
    cv2.imshow('Mediapipe Feed', image)

    # 检查是否按下'q'键退出
    if cv2.waitKey(10) & 0xFF == ord('q'):
        break

# 释放视频资源,关闭所有OpenCV窗口
cap.release()
cv2.destroyAllWindows()

免费获取方式

本文介绍的完整源码与测试视频均已上传,通过以下方式即可获取,更多精彩内容持续更新中~

关注文末名片G-Z-H:【阿旭算法与机器学习】,发送【开源】即可获取下载方式

在这里插入图片描述


好了,这篇文章就介绍到这里,喜欢的小伙伴感谢赞关注,更多精彩内容持续更新~~
更多干货内容,可关注文末G-Z-H: 【阿旭算法与机器学习】,欢迎共同学习交流

  • 25
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: Python的OpenCV库和MediaPipe工具包是可以一起使用的,以实现手势识别的功能。 首先,需要在Python中安装OpenCV库和MediaPipe工具包。可以使用pip命令来安装它们: ``` pip install opencv-python pip install mediapipe ``` 安装完成后,就可以开始使用了。 首先,导入必要的库: ```python import cv2 import mediapipe as mp ``` 接下来,创建一个MediaPipe的Hand对象和一个OpenCV的VideoCapture对象,用于读取摄像头输入: ```python mp_hands = mp.solutions.hands hands = mp_hands.Hands() cap = cv2.VideoCapture(0) ``` 然后,使用一个循环来读取摄像头输入并进行手势识别: ```python while True: ret, frame = cap.read() if not ret: break frame_RGB = cv2.cvtColor(frame, cv2.COLOR_BGR2RGB) results = hands.process(frame_RGB) if results.multi_handedness: for hand_landmarks in results.multi_hand_landmarks: # 在这里可以对hand_landmarks进行处理和识别手势的操作 cv2.imshow('Gesture Recognition', frame) if cv2.waitKey(1) == ord('q'): break ``` 在循环中,首先将读取到的帧转换为RGB格式,然后使用Hands对象的process方法对该帧进行手势识别。得到的结果存储在results变量中。 在对每个检测到的手部进行循环处理时,可以使用hand_landmarks来获取该手的关键点坐标。可以根据这些关键点的位置和运动轨迹来实现手势的识别和分析。 最后,通过cv2.imshow方法显示图像,并使用cv2.waitKey方法等待用户操作。当用户按下"q"键时,循环终止,程序退出。 通过以上步骤,就可以使用Python的OpenCV库和MediaPipe工具包实现手势识别的功能了。当然,实际的手势识别算法和操作需要根据具体需求进行进一步的开发和优化。 ### 回答2: Python OpenCVMediaPipe结合使用可以实现手势识别。首先,我们需要安装必要的库和工具,包括Python、opencv-python、mediapipe和其他依赖项。 然后,我们可以使用MediaPipe提供的HandTracking模块来检测手部的关键点。它使用机器学习模型来识别手势,并返回手部关键点的坐标。我们可以通过OpenCV的视频捕捉模块读取摄像头的实时图像。 接下来,我们通过应用MediaPipe的HandTracking模块获取手部关键点的坐标,并使用OpenCV将这些坐标绘制到图像上,以便我们可以实时看到手部的位置和动作。 完成这些基本的设置后,我们可以定义特定的手势,例如拇指和食指的指尖接触,作为一个简单的示例。我们可以通过检查特定的关键点之间的距离和角度来识别这种手势。如果关键点之间的距离较小并且角度较小,则我们可以确定手势是拇指和食指的指尖接触。 我们可以使用类似的方法来识别其他手势,比如手掌的张开和闭合,拳头的形成等等。我们可以定义一系列规则和阈值来确定特定手势的识别。 最后,我们可以根据检测到的手势执行特定的操作。例如,当识别到拇指和食指的指尖接触时,我们可以触发相机的快门,实现手势拍照。 总之,Python的OpenCVMediaPipe结合使用可以实现手势识别。我们可以利用MediaPipe的HandTracking模块检测手部关键点,并使用OpenCV实时绘制手势位置。通过定义特定手势的规则,我们可以识别各种手势并执行相应操作。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

阿_旭

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值