OpenVINO 公共模型笔记
OpenVINO 代码执行注意事项
编写好可加载模型进行识别的python代码后,就可以使用代码运行模型实现相应的识别功能,在此记录运行过程中所踩过的坑
- 代码运行前会报未找到openvino,该组件不需要通过pip进行装载,只要系统中安装好了openvino开发包,可以通过执行工具包提供的工具加载openvino
1. linux & macOS
source /opt/intel/computer_vision_sdk/bin/setupvars.sh
2. windows
C:\Program Files (x86)\IntelSWTools\openvino\bin\setupvars.bat
- 如果使用CPU运行模型,需要配置cpu扩展,不同系统扩展文件不一致
1. linux
opt/intel/computer_vision_sdk/deployment_tools/inference_engine/lib/系统版本/intel64/libcpu_extension_avx2.so
2. windows
C:\Program Files (x86)\IntelSWTools\openvino\deployment_tools\inference_engine\bin\intel64\Debug\cpu_extension_avx2.dll
3. macOS
/opt/intel/openvino/deployment_tools/inference_engine/lib/intel64/libcpu_extension.dylib
- 如果使用GPU运行模型,需要执行命令,安装使用GPU插件所需的OpenCL™驱动程序组件(建议root用户执行)
1. linux
/opt/intel/computer_vision_sdk_2018.5.445/install_dependencies/install_NEO_OCL_driver.sh
2. windows
C:\Program Files (x86)\IntelSWTools\openvino\deployment_tools\inference-engine\external\MovidiusDriver\Movidius_VSC_Device.inf 右键选择安装
- Intel神经棒支持在设备上插多根用于提升计算性能,但不支持多进程加载模型,如果需要在Python中使用多进程加载多个模型并异步识别多个图像流,可以采用CPU实现