使用c++调用pytorch模型

 常用的深度学习框架有pytorch、tensorflow和caffe。caffe配置太麻烦,开发维护不方便。tensorflow、pytorch都不错,开发维护都很方便。

    目前深度学习大多用python进行开发维护,但某些场景需要用c++。以pytorch为例,使用c++进行开发,可以大幅提高运行速度。

    首先要把模型导出:

#coding=utf-8

import torch

from ** import models#引入定义好的模型

 

model=models()

pth_path=r"**.pt" #引入训练好的参数

checkpoint=torch.load(pth_path) #加载参数

model.load_state_dict(checkpoint)

model.cuda() #模型在GPU上运行

model.eval() #模型用来测试,而非训练

 

example1=torch.rand(1, 3, 512, 512).cuda() #生成测试sample

with torch.no_grad(): #不要梯度,不然显存会爆炸

    trace_script_modile1=torch.jit.trace(model, example1)

    trace_script_modile1.save(r"**.pt") #压缩好的模型存出来

 

c++调用:引入头文件和lib即可

#include <iostream>

#include <memory>

#include <ctime>

  • 4
    点赞
  • 30
    收藏
    觉得还不错? 一键收藏
  • 12
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 12
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值