openpose开源代码:https://github.com/CMU-Perceptual-Computing-Lab/openpose
这个开源代码写的太详细,功能也集成得比较杂,而我只需要拿来跑一下关键点。因此大部分步骤我都不需要,我觉得有很多人和我一样不需要其他的,因此记录一下我跑通的简化的步骤:
Table of Contents
一、克隆代码
git clone https://github.com/CMU-Perceptual-Computing-Lab/openpose.git
接下来跟着它的installation步骤:(不要慌,它的步骤写的太多,实际不要这么多)
https://github.com/CMU-Perceptual-Computing-Lab/openpose/blob/master/doc/installation.md
二、先配置需要的包:
https://github.com/CMU-Perceptual-Computing-Lab/openpose/blob/master/doc/prerequisites.md
原文写的很啰嗦,简单地:
sudo apt-get install cmake-qt-gui
一般都装有cuda和cudnn(如果没装可以跟着它的步骤装),有就只需要运行:装caffe
sudo bash ./scripts/ubuntu/install_deps.sh
三、创建build。具体地:
1.打开CMake GUI
cmake-gui
2.根据下图配置,点generate
生成build目录
3.进入build,然后编译(我在过程中遇到几次报错,都是缺少一些包,缺什么装什么就行)
cd build/
make
四、别忘了下载需要的模型:
这个脚本直接下载所有需要模型:
sh ./models/getModels.sh
五、最后回到工程目录,运行demo:
测视频:
./build/examples/openpose/openpose.bin --video examples/media/video.avi
测文件夹下的所有图片:(图片路径可以换到自己的图片路径)
# Ubuntu and Mac
./build/examples/openpose/openpose.bin --image_dir examples/media/
# With face and hands
./build/examples/openpose/openpose.bin --image_dir examples/media/ --face --hand
关键点结果保存为json格式:
./build/examples/openpose/openpose.bin --video examples/media/video.avi --write_video output/result.avi --write_json output/
效果如下:
运行命令可以带参数,完成结果保存等:
https://github.com/CMU-Perceptual-Computing-Lab/openpose/blob/master/doc/demo_overview.md
结论分享:
openpose在人数相对较少(少于10个人时,人体比较大),关键点效果很好;但人数比较多的时候就效果很差,大部分人都不能检测到关键点。