在docker容器中使用显卡

参考问题:

cuda - Using GPU from a docker container? - Stack Overflow

目录

指定显卡硬件名

nvidia-docker

Docker 19.03


指定显卡硬件名

最初的容器中使用显卡,需要指定硬件名。经历了两种方式

1. 使用lxc驱动程序运行docker守护进程,以便能够修改配置并让容器访问显卡设备(非常麻烦,参考链接中最久远的回答)

2. Docker 0.9中放弃了lxc作为默认执行上下文,但是依然需要指定显卡的名字

(1)找到你的显卡设备

ls -la /dev | grep nvidia

crw-rw-rw-  1 root root    195,   0 Oct 25 19:37 nvidia0 
crw-rw-rw-  1 root root    195, 255 Oct 25 19:37 nvidiactl
crw-rw-rw-  1 root root    251,   0 Oct 25 19:37 nvidia-uvm

(2)启动容器时,指定显卡设备

 sudo docker run -ti --device /dev/nvidia0:/dev/nvidia0 --device /dev/nvidiactl:/dev/nvidiactl --device /dev/nvidia-uvm:/dev/nvidia-uvm tleyden5iwx/ubuntu-cuda /bin/bash

nvidia-docker

英伟达公司开发了nvidia-docker,该软件是对docker的包装,使得容器能够看到并使用宿主机的nvidia显卡.

本质上,他们找到了一种方法来避免在容器中安装CUDA/GPU驱动程序,并让它与主机内核模块匹配。

测试:

# Install nvidia-docker and nvidia-docker-plugin
wget -P /tmp https://github.com/NVIDIA/nvidia-docker/releases/download/v1.0.1/nvidia-docker_1.0.1-1_amd64.deb
sudo dpkg -i /tmp/nvidia-docker*.deb && rm /tmp/nvidia-docker*.deb

# Test nvidia-smi
nvidia-docker run --rm nvidia/cuda nvidia-smi

指定使用两张卡:

docker run --rm --gpus 2 nvidia/cuda nvidia-smi

更详细得得用法见:User Guide — NVIDIA Cloud Native Technologies documentation

另外要注意nvidia-docker包括nvidia-docker1 和 nvidia-docker2,两者命令有一定差异

Docker 19.03

从Docker 19.03开始,安装好docker之后,只需要使用 --gpus 即可指定容器使用显卡。

所有显卡都对容器可见:

docker run --gpus all --name 容器名 -d -t 镜像id

只有显卡1对容器可见:

docker run --gpus="1" --name 容器名 -d -t 镜像id

如果不指定 --gpus ,运行nvidia-smi 会提示Command not found

注意:

1. 显卡驱动在所有方式中,都要先安装好,容器是不会有显卡驱动的,一台物理机的显卡只对应一个显卡驱动,当显卡驱动安装好后(即使未安装cuda),也可以使用命令nvidia-smi

2. nvidia-smi显示的是显卡驱动对应的cuda版本,nvcc -V 显示的运行是cuda的版本

  • 4
    点赞
  • 33
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
您可以按照以下步骤在Docker容器安装CUDA: 1. 首先,确保您的主机上已经安装了NVIDIA驱动程序。您可以使用`nvidia-smi`命令来验证驱动程序是否正确安装。 2. 在Dockerfile,选择一个基础镜像,如nvidia/cuda,它已经预先安装了NVIDIA驱动程序和CUDA工具包。您可以选择适合您的CUDA版本的基础镜像。例如,要安装CUDA 11.0,可以使用以下Dockerfile指令: ``` FROM nvidia/cuda:11.0-base ``` 3. 在Dockerfile,安装CUDA运行时和开发工具包。您可以使用以下指令: ``` RUN apt-get update && apt-get install -y --no-install-recommends \ cuda-runtime-11-0 \ cuda-compiler-11-0 \ cuda-libraries-dev-11-0 ``` 这将安装CUDA运行时、编译器和开发工具包。您可以根据需要选择其他CUDA软件包进行安装。 4. 构建Docker镜像。在命令行导航到包含Dockerfile的目录,并执行以下命令: ``` docker build -t <image_name> . ``` 其`<image_name>`是您为镜像指定的名称。 5. 运行Docker容器使用以下命令启动一个新的容器: ``` docker run --gpus all -it <image_name> bash ``` 这将在启动容器时将所有可用的GPU设备传递给容器,并进入容器的交互式终端。 6. 在容器验证CUDA安装。在容器的终端,可以运行以下命令来验证CUDA是否正确安装: ``` nvcc --version ``` 这将显示安装的CUDA版本信息。 注意:上述步骤仅适用于NVIDIA GPU的主机。如果您使用的是其他类型的GPU或者在云环境使用GPU实例,请查阅相关文档以获取正确的安装步骤。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

旺旺棒棒冰

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值