Postman调用tensorflow模型出错

在尝试将基于TensorFlow1.12的项目通过Flask服务进行调用时,遇到一个问题:当使用POSTman调用'/device_state_predict'接口,服务中的infer()函数报错。错误信息显示在saver=tf.train.Saver()时找不到变量保存。然而,当直接运行infer()函数时,代码能正常执行。问题可能在于服务环境与直接运行时的上下文环境不同,导致模型加载失败。
摘要由CSDN通过智能技术生成

项目需要把基于tensorflow1.12的项目代码通过flask服务调用,项目代码包括模型定义、模型训练和预测函数三部分。服务主要调用预测函数infer()。python服务代码如下:

app = Flask(__name__)
@app.route('/device_state_predict', methods=['POST'])
def device_state_predict():
    result = infer()
    return result

通过postman调用本服务会报错:
在这里插入图片描述
可以看到,预测函数infer()中的

saver = tf.train.Saver()

报错:ValueError: No variables to save

如果不通过服务调用infer(),单独运行infer()函数则代码可以正常运行,通过python服务调用则不行,请问这是什么原因?

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值