如何将Pytorch生成的模型进行CPU部署

本文介绍了如何使用OpenVINO工具箱将PyTorch训练的模型部署到CPU,并加速推理。首先,需将.pth模型转换为ONNX格式,再通过OpenVINO的模型优化器(MO)将ONNX模型转换为.bin和.xml文件,以供OpenVINO使用。在转换过程中,需注意模型保存和.eval()的使用,以及OpenVINO支持的网络层。
摘要由CSDN通过智能技术生成

我们使用Pytorch深度学习框架训练好模型通常保存为.pth文件,但这种网络文件结构通常只在实验验证或者网络学习时使用。如果你做好了一个网络,想要将其部署在终端,或者想要加速其推理速度,可能需要其他专门的框架来帮助其部署。

本文介绍英特尔公司开发的OpenVINO工具箱,用其来进行Pytorch生成模型的部署和加速。

OpenVINO介绍

OpenVINO是英特尔公司开发的基于卷积神经网络(CNN)的深度学习推理加速工具箱。它能使英特尔公司硬件,最大化提高深度学习计算性能。因此,当将深度学习模型部署到CPU端时,可以利用OpenVINO工具箱进行部署,提高深度学习模型推理速度。

OpenVINO的安装可以见官网,从里面就可以下载安装。下面这是指向链接。需要注意的是,如果你在Windows平台安装的话,需要同时安装Visual Studio2015或2017的c++环境,此外还需要安装Python和Cmake工具。关于Python和Cmake都可以在对应官网上下载安装。安装Python和Cmake的时候,需要注意应当将其添加到环境变量中,否则可能在安装OpenVINO是会出一些错误。

OpenVINO官网
OpenVINO安装指导教程

ONNX

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Einstellung

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值