重要提示: 这些步骤是必需的。您必须配置模型优化器的至少一个框架。如果您未完成本节中的步骤,模型优化器将失败。
如果您看到的错误如果您知道您安装了它,不安装 Python,您的计算机可能无法找到该程序。要添加到您的系统环境变量的 Python 的说明,请参阅更新您的 Windows 环境变量.
模型优化程序 Intel® 分布的 OpenVINO 工具套件的关键组件。不能推理您受过培训的型号上不运行通过模型优化器的模型。您通过模型优化器运行了一个预先经过培训的模型,您的输出时,中间表示形式 (IR) 的网络。红外线 (ir) 是一对文件,其中包含整个模型:
- .xml: 描述了网络拓扑结构
- .bin: 包含重量和偏见二进制数据
界面引擎读取、 加载和推断红外线 (ir) 文件,在 CPU、 GPU、 或 VPU 硬件使用一个通用 API。
模型优化程序 Python *-基于命令行工具 (mo.py),位于C:\Intel\computer_vision_sdk_<version>\deployment_tools\model_optimizer,其中<version>是英特尔的版本® Distribution of OpenVINO™ 工具包,您安装了。与受欢迎的深度学习框架如 Caffe、 TensorFlow、 MXNet 和 ONNX 受过培训的型号上使用此工具将其转换为一种经过优化的红外线 (ir) 格式,界面引擎可使用。
本节介绍如何使用脚本来配置模型优化程序同时支持框架的所有或对个人的框架。如果您想要手动配置模型优化器而不是使用的脚本,请参阅型号优化程序开发人员手册 》 中的使用手动配置过程部分。
有关模型优化器的详细信息,请参阅模型优化程序开发人员指南.
您可以一次配置模型优化器为所有支持的框架,一次或一种框架。选择最能满足您需求的选项。如果您看到错误消息,请确保您安装所有依赖关系。
注意: 以下步骤使用命令提示符处,以确保您看到错误消息。
在下面的步骤:
-用您的 Intel® 分布的 OpenVINO 工具套件的版本号替换<version>
-如果您未安装到默认安装目录的 OpenVINO 分发 Intel® 工具包,替换\Intel\您在安装本软件的目录。
选项 1: 配置在同一时间对所有受支持的框架模式优化程序:
- 打开命令提示符。为此,在您的搜索窗口中键入以下内容,然后按Enter:
cmd |
- 在打开窗口中的类型命令:
- 转到模型优化程序前提条件目录。请记住要用 Intel® 分布的 OpenVINO 工具套件,您安装的版本替换<version> :
cd C:\Intel\computer_vision_sdk_<version>\deployment_tools\model_optimizer\install_prerequisites |
- 运行下列批处理文件来为 Caffe *、 TensorFlow *、 MXNet *、 Kaldi *,和 ONNX * 配置模型优化程序:
install_prerequisites.bat |
选项 2: 单独配置每个框架模型优化程序:
- 转到模型优化程序前提条件目录:
cd C:\Intel\computer_vision_sdk_<version>\deployment_tools\model_optimizer\install_prerequisites |
- 运行该批处理文件,您将使用模式优化器的框架。您可以使用多个:
- 对于Caffe:
install_prerequisites_caffe.bat |
-
- 对于TensorFlow:
install_prerequisites_tf.bat |
-
- 对于MXNet:
install_prerequisites_mxnet.bat |
-
- 对于ONNX:
install_prerequisites_onnx.bat |
-
- 对于Kaldi:
install_prerequisites_kaldi.bat |
模型优化器配置为一个或多个框架。类似于这表示成功:
您已准备好使用两个简短演示,请参阅结果运行英特尔发布的 OpenVINO 工具包并验证安装成功。演示脚本是必需的因为它们执行其他配置步骤。继续执行下一节。
如果您想要使用 GPU 或 VPU,或更新 Windows * 环境变量,请参阅可选步骤部分