利用openpose跑关键点

openpose开源代码:https://github.com/CMU-Perceptual-Computing-Lab/openpose

这个开源代码写的太详细,功能也集成得比较杂,而我只需要拿来跑一下关键点。因此大部分步骤我都不需要,我觉得有很多人和我一样不需要其他的,因此记录一下我跑通的简化的步骤:

Table of Contents

一、克隆代码

二、先配置需要的包:

三、创建build。具体地:

 四、别忘了下载需要的模型:

五、最后回到工程目录,运行demo:

结论分享:



一、克隆代码

git clone https://github.com/CMU-Perceptual-Computing-Lab/openpose.git

接下来跟着它的installation步骤:(不要慌,它的步骤写的太多,实际不要这么多)

https://github.com/CMU-Perceptual-Computing-Lab/openpose/blob/master/doc/installation.md

二、先配置需要的包:

https://github.com/CMU-Perceptual-Computing-Lab/openpose/blob/master/doc/prerequisites.md

原文写的很啰嗦,简单地:

sudo apt-get install cmake-qt-gui

 一般都装有cuda和cudnn(如果没装可以跟着它的步骤装),有就只需要运行:装caffe

sudo bash ./scripts/ubuntu/install_deps.sh 

 

三、创建build。具体地:

1.打开CMake GUI 

cmake-gui

2.根据下图配置,点generate

生成build目录

3.进入build,然后编译(我在过程中遇到几次报错,都是缺少一些包,缺什么装什么就行)

cd build/
make

 四、别忘了下载需要的模型:

这个脚本直接下载所有需要模型:

sh  ./models/getModels.sh

五、最后回到工程目录,运行demo:

测视频:

./build/examples/openpose/openpose.bin --video examples/media/video.avi

 测文件夹下的所有图片:(图片路径可以换到自己的图片路径)

# Ubuntu and Mac
./build/examples/openpose/openpose.bin --image_dir examples/media/
# With face and hands
./build/examples/openpose/openpose.bin --image_dir examples/media/ --face --hand

关键点结果保存为json格式:

./build/examples/openpose/openpose.bin --video examples/media/video.avi --write_video output/result.avi --write_json output/

 

效果如下

运行命令可以带参数,完成结果保存等:

https://github.com/CMU-Perceptual-Computing-Lab/openpose/blob/master/doc/demo_overview.md

结论分享:

openpose在人数相对较少(少于10个人时,人体比较大),关键点效果很好;但人数比较多的时候就效果很差,大部分人都不能检测到关键点。

  • 6
    点赞
  • 33
    收藏
    觉得还不错? 一键收藏
  • 10
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值