一、下载git-hub代码
(指定大内存磁盘)
https://github.com/HRNet/HigherHRNet-Human-Pose-Estimation
下载后解压到当前文件夹
二、新建一个虚拟环境
自己命名HHRnet
conda create -n your_env_name python=x.x
三、配置虚拟环境
1、install pytorch v1.4.0
https://pytorch.org/
2、Install dependencies:
pip install -r requirements.txt
3、Install COCOAPI:
下载:
https://github.com/cocodataset/cocoapi.git
安装:
打开COCOAPI下载目录中的pythonAPI,输入cmd,回车
激活以上第二步创建的的虚拟环境:
activate your_env_name(虚拟环境名称)
运行以下命令:
python setup.py install
若有以下报错:
删掉setup.py中无用的参数名并保存
验证是否安装成功:
打开python调用(import pycocotools)
退出python用z
4、Install CrowdPoseAPI exactly the same as COCOAPI.
CrowdPoseAPI 下载地址
安装步骤同上(报错同上)
四、在下载源代码的文件夹中新建所需文件夹
(data,lod,output,models)
${POSE_ROOT}
├── data
├── experiments
├── lib
├── log
├── models
├── output
├── tools
├── README.md
└── requirements.txt
models下载地址:
https://drive.google.com/drive/folders/1X9-TzWpwbX2zQf2To8lB-ZQHMYviYYh6
models目录如下:
${POSE_ROOT}
`-- models
`-- pytorch
|-- imagenet
| `-- hrnet_w32-36af842e.pth
`-- pose_coco
`-- pose_higher_hrnet_w32_512.pth
五、下载数据集
2017 Train/Val is needed for COCO keypoints training and validation
目录如下:
${POSE_ROOT}
|-- data
`-- |-- coco
`-- |-- annotations
| |-- person_keypoints_train2017.json
| `-- person_keypoints_val2017.json
`-- images
|-- train2017
| |-- 000000000009.jpg
| |-- 000000000025.jpg
| |-- 000000000030.jpg
| |-- ...
`-- val2017
|-- 000000000139.jpg
|-- 000000000285.jpg
|-- 000000000632.jpg
|-- ...
六、数据集验证
Testing on COCO val2017 dataset using model zoo’s models (GoogleDrive)
For single-scale testing:
1、在源码目录中打开cmd
2、激活虚拟环境
3、输入以下命令(一行输入,去掉\)
python tools/valid.py \
--cfg experiments/coco/higher_hrnet/w32_512_adam_lr1e-3.yaml \
TEST.MODEL_FILE models/pytorch/pose_coco/pose_higher_hrnet_w32_512.pth
输出图片在目录中的output查看
多尺度测试:输入时设置为一行语句,去掉[0.5,1.0,2.0]中的空格和引号
python tools/valid.py \
--cfg experiments/coco/higher_hrnet/w32_512_adam_lr1e-3.yaml \
TEST.MODEL_FILE models/pytorch/pose_coco/pose_higher_hrnet_w32_512.pth \
TEST.SCALE_FACTOR [0.5,1.0,2.0]
修改各种参数时在w32_512_adam_lr1e-3.yaml等文件中修改