http://blog.csdn.net/bychahaha/article/details/48493233
要使用nvidia-docker来运行docker 容器
nvidia-docker run -p 8503:8503 --mount type=bind,source=sentiment-phone_pre/tf_model,target=/models/sentiment-analysis -e MODEL_NAME=sentiment-analysis -t tensorflow/serving
nvidia-docker exec -it contain_id /bin/bash
【系统:CentOS 7, Nvidia Titan X】
最近在使用GPU计算,同时也在使用Docker做虚拟化环境。那么问题来了,在虚拟机下如何使用GPU呢?
在网上找到了很多答案,例如使用LXC等。
实际上将GPU映射到docker下很容易,只需要在启动镜像的时候将设备挂载上去即可。
- 查看显卡设备名
[root@XXX ~]# ls -la /dev | grep nvidia
crw-rw-rw-. 1 root root 195, 0 Sep 16 13:49 nvidia0
crw-rw-rw-. 1 root root 195, 255 Sep 16 13:49 nvidiactl
crw-rw-rw-. 1 root root 247, 0 Sep 16 13:54 nvidia-uvm
- 挂载对应设备,启动虚拟机
docker run -it --name NAME -v /home/:/mnt/home --privileged=true --device /dev/nvidia-uvm:/dev/nvidia-uvm --device /dev/nvidia0:/dev/nvidia0 --device /dev/nvidiactl:/dev/nvidiactl myconda:cuda bash
这里注意需要使用 privilege 模式,每个设备都用一次 --device
挂载
- 虚拟机内安装驱动以及CUDA