参考链接 – 1 – Keras Tensorflow serving踩坑记录
参考链接 – 2 – Keras Tensorflow serving踩坑记录
参考链接 – 3 – Keras
参考链接-4 来自github部署项目
-
需要什么:Docker,Tensorflow-serving, keras
-
关键是什么:Tensorflow的版本,网络问题(前者保证了模型的正常运行)(后者保证数据的传输)。tensorflow serving,这篇文章主要是基础,关于tensorflow serving的深入,就看另一篇吧
什么是Tensorflow serving
TensorFlow Serving 是一个用于机器学习模型 serving 的高性能开源库。它可以将训练好的机器学习模型部署到线上,使用 restful api或者grpc 作为接口接受外部调用,部署 TensorFlow Serving 后,你再也不需要为线上服务操心,只需要关心你的线下模型训练, 模型训练好打包成pd文件,传入tf-serving 中,调用即可。
总的来说,开箱即用吧,你不用去写什么web也不需要去写什么如何多模型的切换或者什么的,只要将你的模型转化为pb,然后给他,他就帮你部署。然后你去访问他,给他一张图片,他就给你个结果。其实它本身就是写好了web之类的,他也会支持不同的接收方式。上面提到的这些你也可以自己写,自己去实现,关键就是你可以写的比他们好,那就行吧。
整个熟悉的过程会涉及到什么部分呢?
1.首先是对整个部署流程,操作的大致了解,每一步需要做什么,为什么需要做。
2.针对整个流程的部署,然后进行一些细节的更改,这里包括tensorflow serving的几个参数,还有就是热