[tensorflow]TensorFlow模型如何对外提供服务

模型导出

save函数实现(关键代码)

def raw_infer_fn(self):
    c_size = self.params["field_size"]
    features = {
        'feat_ids': tf.placeholder(tf.int64, [None, c_size], name='feat_ids'),
        'feat_vals': tf.placeholder(tf.float32, [None, c_size], name='feat_vals')
    }
    s = tf.estimator.export.build_raw_serving_input_receiver_fn(features)
    return s
def save(self, model_dir, input_type):
        base_dir = "./multi_model"
        full_dir = os.path.join(base_dir, model_dir)
        if input_type == "proto":
            self.model.export_saved_model(full_dir, self.proto_infer_fn())
        else:
            self.model.export_saved_model(full_dir, self.raw_infer_fn())

调用方式

model.save("push_rank", "raw")

模型导出

样本数据 df_tmp
在这里插入图片描述

feat_ids, feat_vals = [], []
for i, cur in enumerate(df_tmp.iloc[0].tolist()):
    if i < 2:
        continue
    ids, vals = cur.split(':')
    feat_ids.append(int(ids))
    feat_vals.append(vals)
input_dict = {"feat_ids":[feat_ids], "feat_vals":[feat_vals]}
print(input_dict)

from tensorflow import contrib
# 从导出目录中加载模型,并生成预测函数。
predict_fn = tf.contrib.predictor.from_saved_model('./multi_model/push_rank/2')
# 开始预测
#input_dict = {"feat_ids":[[1]*816], "feat_vals":[[1]*816]}
predictions = predict_fn(input_dict)
print(predictions)

out

{'prob2': array([[0.2861896]], dtype=float32), 'prob1': array([[0.2861896]], dtype=float32)}

References
TensorFlow 模型如何对外提供服务

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值