Windows10下的AlphaPose配置,人体摔倒姿态识别

AlphaPose为上海交大MVIG组提出的实时多人姿态估计算法,属于自顶向下的方法,即先要通过目标检测算法定位人体,再通过单人姿态估计定位每个人体框中的关键点。

(AlphaPose算法流程)

实验室主页:www.mvig.org/

项目首页:https://github.com/MVIG-SJTU/AlphaPose

环境:win10 + RTX2070s + Anaconda3

# 1. 创建alphapose虚拟环境.
conda create -n alphapose python=3.6 -y
conda activate alphapose
# 2. 安装pytorch(由于RTX2070s cuda必须为10.0+,conda自动在虚拟环境安装cuda10.0)
conda install pytorch torchvision cudatoolkit=10.0 -c pytorch

测试安装是否成功

  

# 3. 下载项目(老版本)
git clone -b pytorch https://github.com/MVIG-SJTU/AlphaPose.git
# 4. 安装依赖包(更改pytorch torchvision版本为安装版本)
pip install -r requirements.txt

duang, ntpath安装出错,alphapose的issue中看到有人说ntpath not necessary,可以直接删掉,不用安装。运行video_demo.py时注释import ntpath(15行),将ntpath替换为 'os.path' (66行)

也可以一样一样来,运行demo时缺什么装什么吧!

# 5. 安装Pillow、opencv、scipy、matplotlib、tqdm、visdom
# Pillow版本大于7.0.0,报错ImportError: cannot import name 'PILLOW_VERSION'
pip install Pillow==6.2.2 
pip install opencv-python
pip install scipy
pip install matplotlib
pip install tqdm
pip install visdom
# 6. 下载模型文件:
# yolov3-spp.weights 放入./models/yolo# duc_se.pth (2018/08/30) 放入./models/sppe
# 7. 运行demo.py、video_demo.py
# 可在opt.py修改参数,如batchsize、SP(单进程,否则报错)
python demo.py --indir ${img_directory} --outdir examples/respython video_demo.py --video ${path to video} --outdir examples/res --save_video

运行图片结果:

视频运行结果:

基于上述人体姿态估计方法,我们参加了中国华录杯—定向算法赛(人体摔倒姿态识别)赛道的比赛。由于该比赛没有提供有监督训练集,我们通过对定位的人体设定了相应的规则(检测框宽高比、关键点相对位置等)对人体是否摔倒进行了识别。

成功晋级(●'◡'●)

点击阅读原文,下载人体定位&姿态估计模型文件

提取码:f39n

长按二维码关注我们

有趣的灵魂在等你

  • 4
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

fahaihappy

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值