我们使用Pytorch深度学习框架训练好模型通常保存为.pth文件,但这种网络文件结构通常只在实验验证或者网络学习时使用。如果你做好了一个网络,想要将其部署在终端,或者想要加速其推理速度,可能需要其他专门的框架来帮助其部署。
本文介绍英特尔公司开发的OpenVINO工具箱,用其来进行Pytorch生成模型的部署和加速。
OpenVINO介绍
OpenVINO是英特尔公司开发的基于卷积神经网络(CNN)的深度学习推理加速工具箱。它能使英特尔公司硬件,最大化提高深度学习计算性能。因此,当将深度学习模型部署到CPU端时,可以利用OpenVINO工具箱进行部署,提高深度学习模型推理速度。
OpenVINO的安装可以见官网,从里面就可以下载安装。下面这是指向链接。需要注意的是,如果你在Windows平台安装的话,需要同时安装Visual Studio2015或2017的c++环境,此外还需要安装Python和Cmake工具。关于Python和Cmake都可以在对应官网上下载安装。安装Python和Cmake的时候,需要注意应当将其添加到环境变量中,否则可能在安装OpenVINO是会出一些错误。