1. 说明
在OpenVINO支持的各个硬件中,CPU、GPU等都是开源的,所以拿到源代码之后可以直接在本地进行编译和安装。
因为我使用的平台没有GPU等其他外设,所以这里以CPU为例。
1.1 环境
硬件
Intel SkyLake平台
Intel® Xeon® 系列CPU
软件
Ubuntu18.04
GCC 7.3
Cmake 3.10.2
python 3.7.1
2. 编译过程
2.1 编译DLDT推理引擎
- 下载源代码
因为源代码中包含其他项目的第三方源代码,直接下载这些代码会为空,所以建议直接使用git克隆下来。链接为:https://github.com/opencv/dldt/
git clone https://github.com/opencv/dldt.git
- 初始化子模块
# 下载第三方代码
git submodule init
git submodule update --recursive
- 检查并安装依赖
dldt/inference-engine目录下包含一个"install_dependencies.sh"脚本文件用于检查并安装编译所需的依赖文件。
cd dldt/inference-engine
./install_dependencies.sh
- 创建并进入build目录(optional)
mkdir build
cd build
- 编译源代码
cmake -DENABLE_CLDNN=OFF -DCMAKE_BUILD_TYPE=Release ..
make --jobs=$(nproc --all)
注:编译默认是使用GPU插件进行的,这需要GPU设备以及安装OpenCL驱动。所以这里使用"-DENABLE_CLDNN=OFF"以跳过该步骤,直接使用CPU编译。
- 设置环境变量
要编译开放模型库内的DLDT应用程序需要将DLDT库添加到环境变量中。
因为我这里是在OpenVINO toolkit基础之上再编译dldt的,所以只要在原来环境变量的基础上将dldt相关的路径修改成我指定的路径即可。(如果完全独立安装dldt会涉及到大量的依赖组件的安装,过程太麻烦了,而我实际只需要修改dldt的代码就可以,所以选择这种方式安装。)
打开配置环境变量脚本
# 安装OpenVINO toolkit后会可以直接运行该脚本配置环境变量
vim /opt/intel/openvino/bin/setupvars.sh
修改dldt相关内容
if [ -e $INSTALLDIR/deployment_tools/inference_engine ]; then
#export InferenceEngine_DIR=$INTEL_OPENVINO_DIR/deployment_tools/inference_engine/share
#system_type=$(\ls $INTEL_OPENVINO_DIR/deployment_tools/inference_engine/lib/)
#IE_PLUGINS_PATH=$INTEL_OPENVINO_DIR/deployment_tools/inference_engine/lib/$system_type
# 我的Inference编译目录
export InferenceEngine_DIR=/home/xxx/OpenVINO/dldt_old/inference-engine/build/share
# 编译dldt后相关lib的路径
system_type=/home/xxx/OpenVINO/dldt_old/inference-engine/bin/intel64/Release/lib
IE_PLUGINS_PATH=$system_type
更新环境变量
source /opt/intel/openvino/bin/setupvars.sh
为方便,建议将上述命令添加到.barshrc文件中,(如:"/root/.barshrc"和"/home/raymond/.barshrc")
2.2 编译应用程序
- 下载源代码
git clone https://github.com/opencv/open_model_zoo.git
- 编译
cd open_model_zoo/demos
./build_demos.sh
编译完成之后会将demo程序存放到目录"$HOME/omz_demos_build/intel64/Release"
中,如我的目录为"/home/xxx/omz_demos_build/intel64/Release"
注1:
在安装dldt时虽然已经设置了环境变量,但是运行build_demos.sh时还是会报没有设置环境变量的错,这是因为build_demos.sh文件默认是根据OpenVINO工具包安装的路径去设置的,而采用源代码编译的方式运行,其路径可能会不一致,所以报错。但因为我们之前已经手动设置过环境变量了,所以文件设置环境变量的部分可以直接删除(L30 - L48)。
注2:
open model zoo中的security_barrier_camera程序在使用源代码的方式编译时会报错,经查资料这是DLDT目前的一个issue,即暂时无法通过外部手段解决,官方建议是通过OpenVINO工具包的形式去编译。我这里选择直接删除此文件夹,这样不影响其他程序的编译。2019_R2 does not compile demos
- 下载机器学习模型
以human_pose_estimation_demo为例
# 安装依赖
sudo -E pip3 install pyyaml requests
mkdir [INSTALL_DIR]/omz_demos_build/intel64/Release/topologies
cd [INSTALL_DIR]/open_model_zoo/tools/downloader
python3 downloader.py --all -o [INSTALL_DIR]/omz_demos_build/intel64/Release/topologies
downloader.py的作用是从Intel开源库(https://download.01.org/opencv/)中下载模型,我这里为方便将所有的模型全部下载到topologies文件夹下。也可以指定下载特定文件,如:
./downloader.py --name vehicle-license-plate-detection-barrier-0106,vehicle-license-plate-detection-barrier-0106-fp16, \
vehicle-attributes-recognition-barrier-0039,vehicle-attributes-recognition-barrier-0039-fp16,license-plate-recognition-barrier-0001,license-plate-recognition-barrier-0001-fp16
下载FP32和FP16版本的车辆属性识别,车牌检测和车牌识别模型。
- 下载视频示例
mkdir [INSTALL_DIR]/omz_demos_build/intel64/Release/
git clone https://github.com/intel-iot-devkit/sample-videos.git
此时会从Intel开源库中下载所有的视频文件用于测试运行
3. 运行
./human_pose_estimation_demo -i sample-videos/classroom.mp4 -m ./topologies/Transportation/human_pose_estimation/mobilenet-v1/FP32/human-pose-estimation-0001.xml -d CPU -pc
结果如下图: