tf serving部署 pytorch onnx

tf serving部署

转onnx再pb再tf serving使用
a、转onnx

import torch
import torchvision
import torch.onnx
import torch.nn as nn
import clip

device = "cpu"
model, preprocess = clip.load("ViT-B/32", device=device)
text1 = clip.tokenize(["hello"]).to(device)
print(text1)
print(type(text1))

# 加载
model_txt = torch.load('./single_model_text1.pkl')

torch.onnx.export(model_txt, text1, "./single_model_text.onnx")



b、onnx再转pb

tf2版本里,安装环境:

pip install onnx onnx_tf

pip install -U tensorflow-probability

导出代码:

import onnx
import numpy as np
from onnx_tf.backend import prepare

model = onnx.load(r'aaa_simp.onnx')
tf_model = prepare(model)
tf_model.export_graph(r'.\1')

报错:

No module named 'tensorflow_probability'

解决方法:

pip install -U tensorflow-probability

然后导出测试ok,会自动创建1目录并导出pb文件。



原文链接:https://blog.csdn.net/weixin_42357472/article/details/118491846

tf加载pb文件,是1.x版本,不是2.x版本:

def load_pb_model(sess, save_path):
    with tf.gfile.FastGFile(save_path + 'model.pb', 'rb') as f:
        graph_def = tf.GraphDef()
        graph_def.ParseFromString(f.read())
        sess.graph.as_default()
        tf.import_graph_def(graph_def, name='')  # 导入计算图
————————————————
版权声明:本文为CSDN博主「魔法攻城狮MRL」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_41959920/article/details/115737188

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AI算法加油站

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值