Tensorflow-serving部署模型到服务器

本文档介绍了如何使用Tensorflow-serving将模型部署到服务器。首先启动docker,检查已有镜像,然后在服务器上运行docker容器,将本地模型目录映射到docker中的指定路径。通过设置环境变量和端口映射,完成模型的部署,以便进行预测操作。
摘要由CSDN通过智能技术生成

Tensorflow-serving部署模型到服务器

1.启动docker

systemctl start docker

2.查看已经下载的镜像

docker images
如果没有,那么拉取镜像
docker pull tensorflow/serving

4.在服务器启动docker

docker run -t --rm -p 8501:8501 -v /root/keras_tf_serving_model/my_image_classifier:/models/my_image_classifier -e MODEL_NAME=my_image_classifier tensorflow/serving
    

/root/keras_tf_serving_model/my_image_classifier这个目录下面是自己导出的model模型,

/models/my_image_classifier这个路径不用管,意思是把上面的目录映射到docker中的这个目录中去,

MODEL_NAME模型名称,在预测时候使用

-t表示是否允许伪TTY

–rm 如果实例已存在,先remove掉,然后再重启实例

-v设置磁盘映射

-p表示端口映射

-e 设置环境变量

5.预测

r = requests.post('http://localhost:8501/v1/models/my_image_classifier:predict', json=payload)
#组合输入的数据,这里的input_image是输入数据的key,在导出模型的时候使用的
payload = {
    "instances": [{'input_image': img.tolist()}]
}
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值