使用nvidia-docker创建gpu支持深度学习环境的容器
初次接触nvidia-docker相关的内容,记录部署的步骤和尝试过程。
一、安装nvidia-docker并测试
1、首先安装docker和nvidia-doker;
2、vim /etc/docker/daemon.json
,添加代红框中的字段,这是为了在执行docker命令时默认使用nvidia-docker;修改好之后启动docker和nvidia-docker服务。
3、nvcc -V查看cuda版本,使用docker pull拉取对应cuda版本的镜像;
我这里是:docker pull nvidia/cuda:10.0-base
4、创建一个基于cuda镜像的容器,测试nvidia-smi
docker run --runtime=nvidia --rm nvidia/cuda:10.0-base nvidia-smi