基于Openpose的姿态估计,支持单人和多人,支持Windows cpu和gpu环境配置,也可在OpenCV下直接使用Openpose输出姿态图,支持Python下运行

 

OpenPose的主要特点:

  • 多平台支持:OpenPose支持多种操作系统,包括Windows、Linux和macOS。
  • 多设备支持:可以利用CPU或GPU加速计算,提高性能。
  • 多语言支持:提供了C++和Python接口。
  • 多人姿态估计:能够在图像中同时检测多个个体的关键点。
  • 高度准确:在多个姿态估计基准上表现优秀。
  • 易于集成:可以轻松地与OpenCV等其他计算机视觉库结合使用。

安装步骤(Windows):

1. 安装依赖项
  • CMake:用于编译OpenPose。
  • Python:安装Python 3.x。
  • OpenCV:确保安装了OpenCV 3.3+。
  • CUDA & cuDNN(可选):如果要使用GPU加速,则需要安装NVIDIA CUDA Toolkit和cuDNN。
2. 克隆OpenPose仓库

git clone https://github.com/CMU-Perceptual-Computing-Lab/openpose.git cd openpose

3. 编译OpenPose
  • 使用CMake配置OpenPose,并指定是否启用GPU加速。
mkdir build
cd build
cmake .. -DOPENPOSE_BUILD_PYTHON=ON -DOPENPOSE_BUILD_EXAMPLES=ON -DOPENPOSE_ENABLE_CUDA=ON -DOPENPOSE_DISABLE_OPENCL=ON -DCMAKE_INSTALL_PREFIX=<path_to_install>
cmake --build . --config Release
4. 安装Python绑定
  • 如果你想通过Python来使用OpenPose,你需要安装Python绑定。
cd python
python setup.py install

使用OpenPose

一旦安装完成,你就可以使用OpenPose了。下面是一些基本的例子,展示如何在Python中使用OpenPose进行姿态估计:

Python示例
import cv2
from openpose import pyopenpose as op

# 参数初始化
params = dict()
params["model_folder"] = "<path_to_openpose_models_folder>"

# 启动OpenPose
opWrapper = op.WrapperPython()
opWrapper.configure(params)
opWrapper.start()

# 处理图像
datum = op.Datum()
imageToProcess = cv2.imread("<path_to_image>")
datum.cvInputData = imageToProcess
opWrapper.emplaceAndPop([datum])

# 显示姿态图
print("Body keypoints: \n" + str(datum.poseKeypoints))
cv2.imshow("OpenPose Output", datum.cvOutputData)
cv2.waitKey(0)

更多高级功能

  • 多人检测:通过调整参数,OpenPose可以同时检测场景中的多个个体。
  • 面部和手部关键点:除了身体关键点之外,OpenPose还可以检测面部和手部的关键点。
  • 实时视频流处理:OpenPose可以应用于实时视频流,如网络摄像头或视频文件。

其代码较为简单,模型(较小:7.8M)已经训练好在graph_opt.pb文件中,其中全部实现代码在openpose.py文件中,下面是实现代码及测试效果: # To use Inference Engine backend, specify location of plugins: # export LD_LIBRARY_PATH=/opt/intel/deeplearning_deploymenttoolkit/deployment_tools/external/mklml_lnx/lib:$LD_LIBRARY_PATH import cv2 as cv import numpy as np import argparse parser = argparse.ArgumentParser() parser.add_argument('--input', help='Path to image or video. Skip to capture frames from camera') parser.add_argument('--thr', default=0.2, type=float, help='Threshold value for pose parts heat map') parser.add_argument('--width', default=368, type=int, help='Resize input to specific width.') parser.add_argument('--height', default=368, type=int, help='Resize input to specific height.') args = parser.parse_args() BODY_PARTS = { "Nose": 0, "Neck": 1, "RShoulder": 2, "RElbow": 3, "RWrist": 4, "LShoulder": 5, "LElbow": 6, "LWrist": 7, "RHip": 8, "RKnee": 9, "RAnkle": 10, "LHip": 11, "LKnee": 12, "LAnkle": 13, "REye": 14, "LEye": 15, "REar": 16, "LEar": 17, "Background": 18 } POSE_PAIRS = [ ["Neck", "RShoulder"], ["Neck", "LShoulder"], ["RShoulder", "RElbow"], ["RElbow", "RWrist"], ["LShoulder", "LElbow"], ["LElbow", "LWrist"], ["Neck", "RHip"], ["RHip", "RKnee"], ["RKnee", "RAnkle"], ["Neck", "LHip"], ["LHip", "LKnee"], ["LKnee", "LAnkle"], ["Neck", "Nose"], ["Nose", "REye"], ["REye", "REar"], ["Nose", "LEye"], ["LEye", "LEar"] ] inWidth = args.width inHeight = args.height net = cv.dnn.readNetFromTensorflow("graph_opt.pb") cap = cv.VideoCapture(args.input if args.input else 0) while cv.waitKey(1) < 0: hasFrame, frame = cap.read() if not hasFrame: cv.waitKey() break frameWidth = frame.shape[1] frameHeight = frame.shape[0] net.setInput(cv.dnn.blobFromImage(frame, 1.0, (inWidth, inHeight), (127.5, 127.5, 127.5), swapRB=True, crop=False)) out = net.forward() out = o
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值