OpenVino端模型部署

直接去Intel官网下载即可:https://www.intel.com/content/www/us/en/developer/tools/openvino-toolkit/download.html

 尽量下载最新版本,不过2022.2似乎不能在线安装,需要解压,我这里使用2022.1.

下载结束,安装一路点击同意即可。

安装结束,配置环境变量:

我这里只添加了Release。

备注:不同版本的OpenVino文件夹形式不同。

2022版本需要的文件均在RunTIme文件夹中,2021版本均在\deployment_tools\inference_engine目录下,2022版本不自带opencv库。

VS配置,打开属性-配置-VC++目录:添加包含目录和库目录

 

 最后,添加dll文件,在连接器中添加:

C:\Program Files (x86)\Intel\openvino_2022.1.0.643\runtime\lib\intel64\Release\*.lib

备注:2021版本不支持ONNX模型输入,2022版本支持。

但不知道为何,YOLOv5.6版本输出的Openvino在2021版本中不能使用,会报错;2021版本使用老版本的YOLOv5模型可以实现GPU和CPU端推理,但2022版本不能实现GPU端推理。

2022版本使用xml文件推理,一致性不通过,必须使用onnx版本模型才可以。

问题出在哪里,不是很清楚。

可明确:2022版本可以推理onnx。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值