Docker部署TF_serving模型记录


本文主要介绍了以tf_serving方式部署模型的方法,Java部署tensorflow的方法详见:【 java加载tensorflow训练的PB模型记录

一、 训练保存模型方法

1.1定义模型输入输出

# 输入query和dropout
tensor_input_query=tf.saved_model.utils.build_tensor_info(model.input_query)
tensor_input_dropout=tf.saved_model.utils.build_tensor_info(model.dropout_keep_prob)

#输出query分类概率
tensor_output_prob=tf.saved_model.utils.build_tensor_info(model.query_probs)

1.2保存模型

#定义模型输入输出签名
prediction_signature = (tf.saved_model.signature_def_utils.build_signature_def(inputs{'query':tensor_input_query,'dropout_keep_prob': tensor_input_dropout},outputs={'probs': tensor_output_prob},
                        method_name=tf.saved_model.signature_constants.PREDICT_METHOD_NAME))

builder = tf.saved_model.builder.SavedModelBuilder(pb_path)

builder.add_meta_graph_and_variables(sess,[tf.saved_model.tag_constants.SERVING],signature_def_map={'intent_pred_score':prediction_signature})

builder.save()

二、 利用docker部署模型

docker安装方法

pb_path下保存的模型拷贝到你需要存放模型的地址:
我是放在当前目录下的intent文件夹下,其中1是模型版本号,可以部署多个不同的模型(以版本号区分),并支持模型热更新。
在这里插入图片描述

启动tf_serving服务
docker run -p 8500:8500 \
      --mount type=bind,source=./intent/,target=/models/intent_score \
      -e MODEL_NAME=intent_score -t tensorflow/serving:1.10.0

参数说明

-p:         指定主机到docker容器的端口映射

--mount:   表示要进行挂载
source:    要部署的模型地址
target:     模型挂载到docker容器中的目录
-t:         指定挂载到目标容器

docker run: 启动这个容器并启动模型服务

启动成功效果:
在这里插入图片描述

三、 python调用

from __future__ import print_function
from grpc.beta import implementations
from tensorflow_serving.apis import predict_pb2
from tensorflow_serving.apis import prediction_service_pb2
import tensorflow as tf
import numpy as np

def main():
	channel = implementations.insecure_channel(host,int(port))
	stub = prediction_service_pb2.beta_create_PredictionService_stub(channel)
	request = predict_pb2.PredictRequest()
	request.model_spec.name = 'intent_score'
	request.model_spec.signature_name = 'intent_pred_score'
	
	# 输入
	query_id = [0]*16
	request.inputs["query"].CopyFrom(tf.contrib.util.make_tensor_proto([query_id], shape=[1,16],dtype=tf.int32))
	request.inputs["dropout_keep_prob"].CopyFrom(tf.contrib.util.make_tensor_proto(1.0,dtype=tf.float32))

	result = stub.Predict(request, 10.0)
	
	#输出
	probs_list = result.outputs['probs'].float_val


if __name__ == '__main__':
	tf.app.flags.DEFINE_string('server', '0.0.0.0:8500', 'PredictionService host:port') 
	FLAGS = tf.app.flags.FLAGS
	host,port = FLAGS.server.split(":")
	main()
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值