前言
业务需要将神经网络模型布在GPU服务器上当做生产环境,通过调用接口的形式用模型分析图片,同时因为服务器还有其他项目在运作,使用Docker容器
Step1
1.本地需要安装TensorFlow-GPU版本镜像,安装CUDA,等配置,之前已有同事配置好镜像文件,此处略去操作,TensorFlow-GPU 1.14.0,CUDA 10.0
2.需要使用nginx部署,docker pull nginx
step2
实例化TensorFlow-GPU镜像,在镜像中安装自己依赖的包和使用的工具,这里主要安装Flask和vim以及nettools调试用,在安装系统工具前务必使用apt-get update,否则会安装失败,环境布置好后,将容器保存为新的镜像供后面使用
# 1.实例化容器
docker run -d -p 80:80--gpus all -it --name tf_flask_api tensorflow:1.14.0
# --gpus all -it 是docker启动GPU的命令
# 2.进入容器
docker exec -it 16 bash
# 3.安装环境
apt-get