1,介绍
OpenVINO是英特尔基于自身现有的硬件平台开发的一种可以加快高性能计算机视觉和深度学习视觉应用开发速度工具套件,支持各种英特尔平台的硬件加速器上进行深度学习,并且允许直接异构执行。 支持在Windows与Linux系统,Python/C++语言。
https://docs.openvinotoolkit.org/latest/_docs_install_guides_installing_openvino_windows.html
2,安装
下载,w_openvino_toolkit_p_2019.1.087.exe,序列号
安装,选项,全选
运行一下三个文件,安装环境配置完成
> c:\Intel\openvino_2019.1.087\bin\setupvars.bat
> c:\Intel\openvino_2019.1.087\development_tool\demo\demo_security_barriar_cereame.bat
> C:\Intel\openvino_2019.1.087\deployment_tools\inference_engine\samples>build_samples_msvc2017.bat
# vs2017 build
> c:\Users\RoseC\Documents\Intel\OpenVINO\inference_engine_samples_build_2017\Samples.sln
> vs2019 右键打开,右键项目 -> 生成解决方案,37个
3,应用
3.1 c++,VS2019项目
环境变量
C:\Intel\openvino_2019.1.087\deployment_tools\inference_engine\bin\intel64\Debug
C:\Intel\openvino_2019.1.087\deployment_tools\inference_engine\bin\intel64\Release
我的文档\Intel\OpenVINO\inference_engine_samples_build_2017\intel64\Debug
我的文档\Intel\OpenVINO\inference_engine_samples_build_2017\intel64\Release
创建VS2019 -> 空项目 -> 属性管理器 -> Debug | 64 -> MicrosoftCpp.x64.user 右键 -> vc++ 目录
包含目录:
C:\Intel\openvino_2019.1.087\deployment_tools\inference_engine\src\extension
C:\Intel\openvino_2019.1.087\deployment_tools\inference_engine\samples\common\format_reader
C:\Intel\openvino_2019.1.087\deployment_tools\inference_engine\include
库目录
我的文档\Intel\OpenVINO\inference_engine_samples_build_2017\intel64\Debug
C:\Intel\openvino_2019.1.087\deployment_tools\inference_engine\lib\intel64\Debug
链接器 -> 输入
inference_engined.lib
cpu_extension.lib
format_reader.lib
4,python
安装openvino,
c:\Intel\openvino..\python\python3.6\openvino -> Python36\Lib\site-packages