实际操作步骤:
当前面临情况:
#vgg,进入vgg上级目录
docker run -d --name tf_img_feat -p 8501:8501 -v “$(pwd)/vgg16:/models/vgg16” -e MODEL_NAME=vgg16 tensorflow/serving
这个是模型部署时,使用tensorflow server加速的命令
因为这个要在本地模型目录下加载
目的:想要把本地模型封装进去,不要用挂载的形式
docker exec -it tfserving /bin/bash 进入容器内部
请求url变成了:
url = “http://localhost:8501/v1/models/my_model/vgg16:predict” (原url)
url = “http://localhost:8501/v1/models/my_model:predict” (更改后)
借鉴:https://fancyerii.github.io/books/tfserving-docker/