Alphapose配置

对于人体骨架数据提取,从OpenposeAlphapose,对人少的场景都做出了很好的性能.

港中文AAA12018的ST-GCN在Openpose的基础上,使用时空图卷积网络进行了简单动作识别,准确率有待提高。在Kinetics (7.5G)and NTU-RGBD(5.8G)数据上进行了相关测试,由于Openpose对caffe环境要求很苛刻,安装编译过程中出现问题,稍后会总结。
Alphapose最近遇到了行人匹配的问题,由于Alphapose在检测时候的问题,导致无法确定时间t内同一个人的骨架数据,使得后边的简单的动作特征无法有效准确的提取
港中文AAA12018:https://arxiv.org/abs/1801.07455 开源项目: https://github.com/yysijie/st-gcn
上交开源项目:https://github.com/MVIG-SJTU/AlphaPose

主要讲一下Alphapose的配置安装教程,特别感谢小伙伴的帮助 https://me.csdn.net/weixin_42054950
(1)机器基本配置:cuda9.0 cudnn 7.1等不在介绍;
(2)训练好的模型duc_se.pth 下载链接:https://pan.baidu.com/s/1xXLHvsaVUNHfHDjHI2cVtw
提取码:wb24 放在 AlphaPose-pytorch\models\sppe
(3)训练好的模型yolov3-spp.weights下载链接:https://pan.baidu.com/s/1mLhdNZtUPs6fSA8eCGxgBA
提取码:akxo 放在 AlphaPose-pytorch\models\yolo

安装requirements.txt里边的依赖项:注意torch==0.4.0和torchvision安装时间会很长,耐心等待,其余的缺啥安装啥就行,每个人的环境也不太一样。使用命令测试pytorch是否安装成功

python3
import torch

demo测试:
1.视频文件提取并保存

python3 video_demo.py --video /home/*****/*****/AlphaPose-pytorch/examples/testvideo/2.mp4 --outdir examples/resvideo --save_video

2.批量照片文件提取

python3 demo.py --indir /home/*****/*****/AlphaPose-pytorch/examples/demo --outdir examples/res 

3.摄像头视频流实时提取

python3 webcam_demo.py --webcam 0 --outdir examples/res --vis

4.批量照片文件提取

python3 demo.py --indir /home/*****/*****/AlphaPose-pytorch/examples/demo --outdir examples/res --fast_inference False --save_img

加速检测:
(1)增加置信阈值 降低NMS阈值

python3 video_demo.py --video ${path to video} --outdir examples/results/ --conf 0.5 --nms 0.45

(2)显存大于8G 增加检测批次

python3 demo.py --indir ${img_directory} --outdir examples/res --detbatch 2

(3)如果不检测小目标人物,降低输入到检测网络 inp_dim 是32的倍数

python3 demo.py --indir ${img_directory} --outdir examples/res --inp_dim 480

处理的视频截图,后边有时间想好了之后会对json文件解析再进行介绍:
在这里插入图片描述

Alphapose是一个用于人体姿态估计的开源项目。根据引用的内容,在Windows系统上配置Alphapose的环境可以按照以下步骤进行: 1. 首先,确保你的系统环境是Windows 10,并且已经安装了Anaconda3和NVIDIA的RTX 2070s显卡驱动。 2. 打开命令提示符或Anaconda Prompt,并执行以下命令创建一个名为alphapose的虚拟环境: ``` conda create -n alphapose python=3.6 -y ``` 3. 激活alphapose虚拟环境: ``` conda activate alphapose ``` 4. 安装PyTorch和相应的依赖,引用中的命令使用conda安装了适用于RTX 2070s的PyTorch和CUDA 10.0: ``` conda install pytorch torchvision cudatoolkit=10.0 -c pytorch ``` 5. 获取Alphapose仓库,具体的步骤未在引用中提到,请参考官方文档或其他资源获取Alphapose的代码库。 综上所述,以上是在Windows系统上配置Alphapose环境的一般步骤。请注意,这只是一个简要概述,具体的安装和配置过程可能因个人环境的不同而有所差异。建议参考Alphapose的官方安装文档或其他可靠资源,以获取更详细的指导。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [Windows10下的AlphaPose配置,人体摔倒姿态识别](https://blog.csdn.net/fahaihappy/article/details/118080644)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [Alphapose - Windows下Alphapose(Pytorch 1.1+)版本2021最新环境配置步骤以及踩坑说明](https://blog.csdn.net/HW140701/article/details/115306093)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论 13
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值