OpenVINO系列:
OpenVINO之一:OpenVINO概述
OpenVINO之二:Windows环境下OpenVINO安装与配置
OpenVINO之三:Linux环境下OpenVINO安装与配置
OpenVINO是英特尔基于自身现有的硬件平台开发的一种可以加快高性能计算机视觉和深度学习视觉应用开发速度工具套件,支持各种英特尔平台的硬件加速器上进行深度学习,并且允许直接异构执行。 支持在Windows与Linux系统,Python/C++语言。
主要特点:
- 在Intel平台上提升计算机视觉相关深度学习性能达19倍以上
- 解除CNN-based的网络在边缘设备的性能瓶颈
- 对OpenCV,OpenXV*视觉库的传统API实现加速与优化
- 基于通用API接口在CPU、GPU、FPGA等设备上运行加上
OpenVINO工具包(ToolKit)主要包括两个核心组件,模型优化器(Model Optimizer)和(Model Optimizer)。
模型优化器(Model Optimizer)
模型优化器(Model Optimizer)将给定的模型转化为标准的 Intermediate Representation (IR) ,并对模型优化。
模型优化器支持的深度学习框架:
- ONNX
- TensorFlow
- Caffe
- MXNet
- Kaldi
推断引擎(Inference Engine)
推断引擎(Inference Engine)支持硬件指令集层面的深度学习模型加速运行,同时对传统的OpenCV图像处理库也进行了指令集优化,有显著的性能与速度提升。
支持的硬件设备:
- CPU
- GPU
- FPGA
- VPU
参考资料:
1 OpenVINO™ toolkit Documentation
2 Install Intel® Distribution of OpenVINO™ toolkit for Windows* 10
3 Install Intel® Distribution of OpenVINO™ toolkit for Linux*
4 Introduction to Intel® Deep Learning Deployment Toolkit