Tensorflow serving -- 部署和并发测试记录

本文记录了使用Tensorflow Serving部署模型的详细步骤,包括模型格式转换为PB,Docker部署,以及并发测试。重点介绍了前端预处理图像的重要性,并提供了不同Web框架的对比。在Docker容器中运行Tensorflow Serving,通过gRPC接口进行预测请求,同时强调了网络配置和端口映射的关键作用。
摘要由CSDN通过智能技术生成

参考链接 – 1 – Keras Tensorflow serving踩坑记录
参考链接 – 2 – Keras Tensorflow serving踩坑记录
参考链接 – 3 – Keras
参考链接-4 来自github部署项目


  • 需要什么:Docker,Tensorflow-serving, keras

  • 关键是什么:Tensorflow的版本,网络问题(前者保证了模型的正常运行)(后者保证数据的传输)。tensorflow serving,这篇文章主要是基础,关于tensorflow serving的深入,就看另一篇吧


什么是Tensorflow serving

在这里插入图片描述
参考链接1

TensorFlow Serving 是一个用于机器学习模型 serving 的高性能开源库。它可以将训练好的机器学习模型部署到线上,使用 restful api或者grpc 作为接口接受外部调用,部署 TensorFlow Serving 后,你再也不需要为线上服务操心,只需要关心你的线下模型训练, 模型训练好打包成pd文件,传入tf-serving 中,调用即可。

总的来说,开箱即用吧,你不用去写什么web也不需要去写什么如何多模型的切换或者什么的,只要将你的模型转化为pb,然后给他,他就帮你部署。然后你去访问他,给他一张图片,他就给你个结果。其实它本身就是写好了web之类的,他也会支持不同的接收方式。上面提到的这些你也可以自己写,自己去实现,关键就是你可以写的比他们好,那就行吧。

整个熟悉的过程会涉及到什么部分呢?

1.首先是对整个部署流程,操作的大致了解,每一步需要做什么,为什么需要做。

2.针对整个流程的部署,然后进行一些细节的更改,这里包括tensorflow serving的几个参数,还有就是热

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值