Hopenet: cvpr2018 workshop paper for head pose estimation.
code:https://github.com/natanielruiz/deep-head-pose
环境搭建存在问题:
1. 安装dlib,运行python code/test_on_video_dlib.py --snapshot ./HeadPoseModelSnapshot/hopenet_robust_alpha1.pkl --face_model ./DLIB_MODEL/mmod_human_face_detector.dat --video ./video/1.mp4 --output_string outpt_ --n_frames 1000 --fps 30
issue: dlib和torch不能并存,即不能同时import torch和import dlib. 会报segmentation fault错误。
没找到原因,最终不使用dlib,预先自己做FD.
2. 使用python code/test_on_video_dockerface.py --snapshot ./HeadPoseModelSnapshot/hopenet_robust_alpha1.pkl --video ./video/1.mp4 --bboxes ./fdld/03_fd.txt --output_string new_output --n_frames 276 --fps 30
step1: 生成03_fd.txt,文件每行5个值,表示: (n_frame x_min y_min x_max y_max confidence)
n_frame: 从1开始,表示帧数索引。
x_min,y_min: face bounding