Openpose训练coco数据集整理

30 篇文章 0 订阅

一、前言
openspoe比较繁杂,包含了人体姿态估计、手势估计、脸部关键点提取,还有3Dpose,是在caffe上再做的一层封装,但是如果我们实际去用的话,很多都是不需要的,比如openpose里面的多线程,GUI等等,在这里,我是基于coco2014数据集(coco2017也一样),只训练我们关心的openpose中的人体关键点估计,我们可以大致了解到,Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields就是CVPR2016的CPM加上PAF,inference是很直观的,就是提取关键点,算PAF积分,再把关键点放到每个group(就是确定是不是同一个人)完成多人的姿态估计。

二、安装编译caffe_train
caffe_train主要实现了数据的读取;包括cpm_data_layer.cpp和cpm_data_transformer.cpp的两个读取数据文件。在安装之前需要下载一下环境所需的库,其中protobuf是用来定义layers的,leveldb是训练时存储图片数据的数据库,opencv是图像处理库,boost是通用C++库,科学计算和python所需的部分库,以及其他依赖库等;
sudo apt-get install libprotobuf-dev libleveldb-dev libsnappy-dev libopencv-dev libhdf5-serial-dev protobuf-compiler
sudo apt-get install --no-install-recommends libboost-all-dev
sudo apt-get install openblas-dev numpy scipy matplotlib lapack-dev freetype-dev libpng-dev openblas-dev
sudo apt-get install libgflags-dev libgoogle-glog-dev liblmdb-dev
安装matlab 参考https://blog.csdn.net/qq_38469553/article/details/82050851
如下是编译caffe的步骤。
1、下载
git clone https://github.com/CMU-Perceptual-Computing-Lab/caffe_train
2、cd caffe
3、cp Makefile.config.example Makefile.config
4、Makefile.config中的一些必要的参数修改
USE_CUDNN := 1 编译GPU版本的caffe
OPENCV_VERSION := 3 反注释掉,支持opencv
PYTHON_INCLUDE := /usr/include/python2.7 
/usr/lib/python2.7/dist-packages/numpy/core/include 需要用python2.7编译
CUDA_DIR := /usr/local/cuda-9.0 指定cuda安装路径
CUDA_ARCH := -gencode arch=compute_30,code=sm_30 
-gencode arch=compute_35,code=sm_35 
-gencode arch=compute_50,code=sm_50 
-gencode arch=compute_50,code=compute_50 根据cuda版本删掉一些参数,例如会报错nvcc fatal : Unsupported gpu architecture 'compute_20’等
MATLAB_DIR := /usr/local/MATLAB/R2016b 要指定系统中安装的matlab
5、Makefile文件中的修改
LIBRARIES参数要做修改,否则回报hdf5相关的错误
LIBRARIES += glog gflags protobuf boost_system boost_filesystem m hdf5_hl hdf5 \ opencv_core opencv_highgui opencv_imgproc opencv_imgcodecs
6、开始编译caffe
make all -j8
make test
make runtest
7、编译完成需要导入caffe
sudo vim ~/.bashrc
export PYTHONPATH=/home/male/project1/caffe/python:$PYTHONPATH
cd /caffe
make pycaffe

caffe编译完成,python后可以import caffe,不报错。

三、训练openpose模型
要实现训练模型,就是数据的准备和读取了,上面说数据的读取主要由caffe来完成,此处主要就是进行数据的准备工作,主要由以下几个文件完成。
genCOCOMask.m
genJSON.m
genLMDB.py
getANNO.m
主要步骤如下:
git clone https://github.com/ZheC/Realtime_Multi-Person_Pose_Estimation
cd Realtime_Multi-Person_Pose_Estimation
1、原始数据集准备
我们这里可以使用coco2014或者coco2017作为原始训练数据集,所以这一步就是先下载存储数据集,同时要git下了一个cocoAPI。

2、控制台输入 matlab getANNO.m to convert the annotation format from json to mat in dataset/COCO/mat/。
3、控制台输入 matlab genCOCOMask.m 获取未标记人员的图像,
  这里要注意修改Matlab程序中的路径,对应与自己coco数据集的路径 
这里可能会出现一个error:Error in MaskApi.decode (line 84)
masks = maskApiMex( ‘decode’, Rs );
Error in genCOCOMask (line 48)
解决办法:
例如cocoAPI在名为coco/ 的目录下:
(1)cd MatlabAPI ,转到MatlabAPI目录下
(2) 输入matlab ,进入matlab控制台程序
(3)在matlab中输入:
mex(‘CFLAGS=$CFLAGS -Wall -std=c99’,’-largeArrayDims’,‘private/maskApiMex.c’,’…/common/maskApi.c’,’-I…/common/’,’-outdir’,‘private’);
4、控制台输入 matlab genJSON(‘COCO’) , 去生成训练所需的原始信息的json文件,

5、 python genLMDB.py,来生产训练所需的 LMDB文件,这里coco2014数据集对应生产189G。
运行前需要pip install --user lmdb
6、需要修改三个文件的配置

(1)修改pose_solver.prototxt
将其中的snapshot路径修改为自己的路径,其他的参数自行调整。我这里的学习率base_lr=0.00001,
snapshot: 10000,或者可以调节为5000,表示存储模型的迭代次数。
(2)修改pose_train_test.prototxt
第7行输入数据source的路径改为步骤5得到的lmdb的路径;第8行的batch_size可以根据你的服务器的计算能力来修改。
(3)下载预训练模型文件caffemodel
在train_pose.sh中可以看到,此openpose模型是基于VGG_ILSVRC_19_layers.caffemodel来训练的。下载地址:https://gist.github.com/ksimonyan/3785162f95cd2d5fee77
(4)修改train_pose.sh
将其中的运行用的caffe路径改为步骤4编译好的caffe,并指定VGG_ILSVRC_19_layers.caffemodel的存储路径,其他用到的文件的路径可以根据自己需求修改。
7、bash train_pose.sh 就可以开始训练了,后面可以跟0,1表示使用第一块和第二块显卡训练

https://blog.csdn.net/u013486760/article/details/100218875

  • 1
    点赞
  • 43
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值