openpose如何处理视频

openpose提供了官方的bin文件,可以通过shell直接处理视频,

此外还提供了一系列的demo文件,用于处理图片文件。

那如何修改官方的demo用来处理视频呢?

找了不少别人的教程都是通过

cv2.dnn.readNetFromCaffe(protoFile, weightsFile)

用opencv载入权重的方式来实现的

比如OpenCV手势识别

 

或者还有的通过修改flags.hpp文件实现

OpenPose学习笔记

 

我不想搞那么复杂,只想通过修改官方的01_body_from_image.py来是实现视频的处理

修改后的openpose_body_from_video.py如下

# From Python
# It requires OpenCV installed for Python
import sys
import cv2
import os
from sys import platform
import argparse

try:
    # Import Openpose (Windows/Ubuntu/OSX)
    dir_path = os.path.dirname(os.path.realpath(__file__))
    try:
        # Windows Import
        if platform == "win32":
            # Change these variables to point to the correct folder (Release/x64 etc.)
            sys.path.append(dir_path + '/../../python/openpose/Release');
            os.environ['PATH'] = os.environ['PATH'] + ';' + dir_path + '/../../x64/Release;' + dir_path + '/../../bin;'
            import pyopenpose as op
        else:
            # Change these variables to point to the correct folder (Release/x64 etc.)
            sys.path.append('../../python');
            # If you run `make install` (default path is `/usr/local/python` for Ubuntu), you can also access the OpenPose/python module from there. This will install OpenPose and the python library at your desired installation path. Ensure that this is in your python path in order to use it.
            # sys.path.append('/usr/local/python')
            from openpose import pyopenpose as op
    except ImportError as e:
        print('Error: OpenPose library could not be found. Did you enable `BUILD_PYTHON` in CMake and have this Python script in the right folder?')
        raise e

    # # Flags
    # parser = argparse.ArgumentParser()
    # parser.add_argument("--image_path", default="../../../examples/media/COCO_val2014_000000000192.jpg", help="Process an image. Read all standard formats (jpg, png, bmp, etc.).")
    # args = parser.parse_known_args()

    # Custom Params (refer to include/openpose/flags.hpp for more parameters)
    params = dict()
    params["model_folder"] = "../../../models/"
    params["hand"] = True
    params["number_people_max"] = 1
    params["disable_blending"] = True  # for black background
    # params["display"] = 0

    # # Add others in path?
    # for i in range(0, len(args[1])):
    #     curr_item = args[1][i]
    #     if i != len(args[1]) - 1:
    #         next_item = args[1][i + 1]
    #     else:
    #         next_item = "1"
    #     if "--" in curr_item and "--" in next_item:
    #         key = curr_item.replace('-', '')
    #         if key not in params:  params[key] = "1"
    #     elif "--" in curr_item and "--" not in next_item:
    #         key = curr_item.replace('-', '')
    #         if key not in params: params[key] = next_item

    # Construct it from system arguments
    # op.init_argv(args[1])
    # oppython = op.OpenposePython()

    # Starting OpenPose
    opWrapper = op.WrapperPython()
    opWrapper.configure(params)
    opWrapper.start()

    # Process Image
    datum = op.Datum()
    cap = cv2.VideoCapture("../../../examples/media/jzh/720P.flv")
    fps = cap.get(cv2.CAP_PROP_FPS)
    size = (int(cap.get(cv2.CAP_PROP_FRAME_WIDTH)), int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT)))
    framecount = cap.get(cv2.CAP_PROP_FRAME_COUNT)
    print('Total frames in this video: ' + str(framecount))
    videoWriter = cv2.VideoWriter("op720_2.avi", cv2.VideoWriter_fourcc('D', 'I', 'V', 'X'), fps, size)

    while cap.isOpened():
        hasFrame, frame = cap.read()
        if hasFrame:
            datum.cvInputData = frame
            opWrapper.emplaceAndPop(op.VectorDatum([datum]))
            opframe = datum.cvOutputData
            cv2.imshow("main", opframe)
            videoWriter.write(opframe)
            if cv2.waitKey(1) & 0xFF == ord('q'):
                break
        else:
            break
    cap.release()
    cv2.destroyAllWindows()

except Exception as e:
    print(e)
    sys.exit(-1)

 

详情请见github openpose_body_from_video

 

 

视频展示

openpose人体姿态识别 效果展示 金子涵

 

openpose人体姿态识别 增加手部特征 效果展示 金子涵

 

  • 15
    点赞
  • 55
    收藏
    觉得还不错? 一键收藏
  • 48
    评论
### 回答1: openpose是一种基于深度神经网络的人体姿态估计算法,用于从视频中识别人体的关键点位置。该算法能够通过识别人体的关键点来描绘出人体的姿态,包括头部、手臂、腿部等各个关节的位置和角度。 使用openpose进行视频识别的过程大致分为三个步骤。首先,将视频输入到openpose算法中,算法会提取每一帧图像中的人体关键点位置,并生成对应的关键点向量。这些关键点包括人体的头、脖子、肩膀、手臂、腿部等。 接下来,openpose会对每个关键点进行连接,形成一个完整的人体姿态图。这个图像可以展示出人体各个关节的位置和角度,并通过颜色或线条的不同来表示不同的姿态信息。 最后,openpose会将生成的姿态图与原始视频进行合并,形成一个具有姿态标记的视频。通过观看这个视频,我们可以清晰地看到人体在不同时间点的姿态变化,可以用于分析人体动作、运动技巧、姿势正确性等方面。 openpose视频识别在很多领域有着广泛的应用,特别是在运动科学、人体动作分析和姿势检测等方面。例如,在体育训练中,教练可以使用openpose识别视频来分析运动员的姿态,以便提出改进建议。在医学领域,该技术也可以用于康复训练中,帮助患者改善姿态和动作的准确性。 总之,openpose视频识别技术通过深度学习算法,能够准确地识别人体姿态并提取关键点信息,为各个领域的研究和应用提供了有力的工具和方法。 ### 回答2: OpenPose是一种基于深度学习视频姿态识别技术。通过分析视频中人物的身体动作,可以实时捕捉和追踪其身体部位的位置和姿势。 OpenPose的算法使用卷积神经网络来提取身体部位的特征,并应用图像处理技术进行人体姿势的估计。它能够对视频中的每个人进行多人姿势估计,识别出头部、肩膀、手臂、腿部等身体部位的位置,以及它们之间的姿势关系。 OpenPose的应用广泛,可以用于人体行为分析、手势识别、虚拟现实等领域。在人体行为分析中,通过对人体姿势的识别和追踪,可以分析人物的活动模式、动作类别、姿势变化等信息,用于医疗、体育训练、安防监控等领域。 OpenPose视频识别能力较强,能够实时处理高清视频,并能够处理复杂的场景和多个人物的姿势追踪。它使用GPU加速技术,提高了处理速度和准确性,并且具有较高的鲁棒性,可以适应不同光线、遮挡和背景干扰的情况。 总而言之,OpenPose视频识别技术是一种利用深度学习和图像处理算法进行人体姿势估计和追踪的方法。它具有广泛的应用前景,可以用于人体行为分析、手势识别、虚拟现实等领域,有着较强的实时性、准确性和鲁棒性。 ### 回答3: openpose视频识别是一种计算机视觉技术,旨在通过对视频进行分析和处理,识别出视频中人体的姿势、动作和关节信息。它基于深度学习算法,能够自动进行人体关节点检测和姿势估计,从而实现准确的人体姿势分析。 openpose视频识别的原理是通过对视频帧进行图像处理和特征提取,得到每个视频帧中人体的关节点位置信息。关节点表示人体的关节位置,如头部、手臂、腿部等。通过对连续视频帧的关节点信息进行跟踪,就能够获得人体在整个视频中的运动轨迹和动作状态。 在应用方面,openpose视频识别可以广泛应用于多个领域。例如,在体育领域,可以用于分析运动员的姿势和动作,提供训练建议和姿势矫正;在健康领域,可以用于监测老年人或患有运动障碍的患者的日常活动,提供健康管理支持;在娱乐领域,可以用于增强现实游戏或虚拟现实体验,提供身体互动和虚拟角色控制等。 总之,openpose视频识别是一项强大的计算机视觉技术,具有广泛的应用前景。它能够准确地捕捉和分析视频中的人体姿势和动作,帮助我们了解和掌握人体运动特征,在多个领域中发挥重要作用。
评论 48
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值