写在前头
随着深度学习,人工智能等概念和实践日益流行,ai项目被越来越多的传统行业采用。大型ai项目多使用较新的软件和技术,且对系统环境(内核,GLIB版本等)基础依赖软件(python,java,gcc等),在部署和运行时对环境有特殊要求,传统的生产环境多数不满足,所以对于docker的使用逐渐增多,由于深度学习目前对GPU的需求较大,docker对GPU的支持不足也困惑了很多机器学习爱好者,好在官方推出了nvidia-docker版本很好的支持了在docker内支持调用系统GPU,本次就来讲解一下nvidia-docker安装使用。
基础环境
系统:ubuntu16.04 LTS
root权限:su权限(包括apt权限)和对硬件端口开启等的操作权限
由于本例拟定使用nvidia-docker,参照官网给出的配置要求:
Tesla GPUs型号GPU,支持cuda10版本需要显卡驱动版本>= 384.111, < 385.00,不过网上有说必须安装384.111版本才可以,在上述区间之内的驱动版本会出问题。经过本人实际测试,使用410.48驱动也可以满足要求,以下内容以安装410.48驱动为例。
1.NVIDIA 显卡驱动安装:
查看机器显卡:
| grep -i nvidia
如果机器有NVIDIA 的GPU,会出现类似信息: