直接去Intel官网下载即可:https://www.intel.com/content/www/us/en/developer/tools/openvino-toolkit/download.html
尽量下载最新版本,不过2022.2似乎不能在线安装,需要解压,我这里使用2022.1.
下载结束,安装一路点击同意即可。
安装结束,配置环境变量:
我这里只添加了Release。
备注:不同版本的OpenVino文件夹形式不同。
2022版本需要的文件均在RunTIme文件夹中,2021版本均在\deployment_tools\inference_engine目录下,2022版本不自带opencv库。
VS配置,打开属性-配置-VC++目录:添加包含目录和库目录
最后,添加dll文件,在连接器中添加:
C:\Program Files (x86)\Intel\openvino_2022.1.0.643\runtime\lib\intel64\Release\*.lib
备注:2021版本不支持ONNX模型输入,2022版本支持。
但不知道为何,YOLOv5.6版本输出的Openvino在2021版本中不能使用,会报错;2021版本使用老版本的YOLOv5模型可以实现GPU和CPU端推理,但2022版本不能实现GPU端推理。
2022版本使用xml文件推理,一致性不通过,必须使用onnx版本模型才可以。
问题出在哪里,不是很清楚。
可明确:2022版本可以推理onnx。