Pytorch模型的TF-Serving部署

Pytorch模型的TF-Serving部署

写在前面

目前PyTorch在学术界几乎完全盖过了Tensorflow,从个人体验来说:

  1. PyTorch并没有表现出比Tensorflow性能差很多,基本是相当;
  2. 与Tensorflow的非Eager API相比,PyTorch上手、使用的难度相对来说非常低,并且调试非常容易(可断点可单步);
  3. 以及笔者还没有体会到的动态图与静态图之争

但是在应用场景下仍然还有将模型使用TF-Serving部署的需求,做转换还是有意义的。

本文将以一个transformer为例来介绍整个流程。

1. PyTorch侧,利用onnx导出

依赖:onnx

model = MultiTaskModel(encoder, sst_head, mrpc_head)
# 关注点1
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')

# 关注点2
tensor = torch.tensor((), dtype=torch.int64)
input_ids = tensor.new_ones((1, 48)).to(device)
token_type_ids = tensor.new_ones((1, 48)).to(device)
attention_mask = tensor.new_ones((1, 48)).to(device)

# 关注点3
torch.onnx.export(model, 
                  (input_ids, attention_mask, token_type_ids),
  • 9
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 5
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值