在c++平台上部署pytorch模型

如何在c++平台上部署pytorch模型?

pytorch接口简单灵活,深受深度学习研究者的喜爱,不少论文及github上的开源代码是用pytorch写的,那么,训练完pytorch模型后,部署到c++平台上,着实让不少人头疼.好在,pytorch开放了libtorch c++接口,至此,caffe, mxnet, tensorflow, pytorch均完善了python以及c++接口,无论是在PC端,还是在移动端,均可满足大多数人的训练和模型部署需求.

深度学习框架趋于大同的情况下,需要耐心对各框架熟悉.将pytorch c++部署简述如下:

先提一件事情,除了使用libtorch外,确实有很多部署的方法,例如如下:

(1)pytorch模型转为tensorflow模型,利用tensorflow c++等进行部署;

(2)pytorch模型转为onnx模型,利用其他支持onnx的框架进行部署;

(3)pytorch模型转为tensor rt模型,利用tensorrt进行部署等;

诚然,可以,然而不是最好,缺点如下:

(1)有种逃避困难的嫌疑,走捷径固然好,但是不深入;

(2)各种框架间兼容的情况(eg. operator等)并不好,自己的框架自己最清楚;

(3)你给自己挖了另外一个坑.

借鉴:https://blog.csdn.net/seasermy/article/details/99677789

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值