使用docker和tf serving搭建模型预测服务

使用docker和tf serving搭建模型预测服务

本篇主要介绍使用dockertensorflow serving搭建一个模型预测服务,通过RESTful API和gRPC请求预测(python)。在下一篇将介绍使用Python web框架Django + tfserving,搭建一个图像分类预测web服务。

一、准备工作

1.安装Docker CE

Docker CE的安装可以参考docker官方参考文档:install Docker CE
安装完成后,可以运行 $sudo docker run hello-world 测试是否安装成功,成功安装的情况下应该看到如下输出:
在这里插入图片描述
docker安装完成后,在使用docker命令的时候需要使用sudo,这是因为docker守护进程绑定的是Unix socket,默认情况下Unix socket为root用户所有,其他用户想要访问需要使用sudo。如果希望不使用sudo,可以新建一个名为docker的用户组,并将当前用户添加到该用户组,这样docker守护进程启动的时候,会自动为docker用户组用户获取Unix socket的读写权限。

sudo groupadd docker # 创建docker用户组
sudo usermod -aG docker ${USER} # 将当前用户添加到docker组
sudo systemctl restart docker # 重启docker
su root 
su ${USER} # 切换或退出当前用户再登入生效

完成后可以运行$docker ps -a 查看效果。

2.保存模型

保存模型是将训练得到的tensorflow模型保存为可以用于tensorflow serving的模型文件,主要是通过GraphDef对象保存模型文件。相关详细说明和完整示例代码可以参考tensorflow模型保存与恢复(2) 使用SavedModel,可以直接使用simple_save方法保存,更简洁方便。保存模型的时候注意设置好input和output,使用tfserving预测的输入即是从input tensor输入到网络,一次前向传播完成后,得到output tensor,返回预测结果。

二、运行容器

1.获取tfserving 镜像

这一步是从docker仓库获取tensorf

  • 8
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 7
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值