搭建mxnet-gpu docker的pyhon remote kernel

搭建mxnet-gpu docker的pyhon remote kernel

起因

最近看mxnet的东西,打算给实验室的机器装一个mxnet的环境,无奈实验室里面机器已经装了tensorflow,运行了好久了,环境比较老。而mxnet可是支持最新的cuda9.1和cudnn7的。研究了一段时间后,发现cuda的docker镜像是个不错的选择。别问我为啥不编译tensorflow以获得cuda9.1和cudnn7的支持,谁再让我编译tensorflow,谁是XX。

试着装了一个cuda9.1的docker镜像,发现很好用,基本除了nvidia-docker之外,不需要其他任何外部依赖。

配合atom的插件hydrogen,可以实现notebook的几乎全部功能。

这个文档中的带显卡的主机用的是ubuntu18.04的操作系统。远程访问的机器使用的是debian sid版本。

本来想用cuda9.2的,但是很尴尬的发现nvidia-docker不支持cuda9.2。

docker的安装

我们这里为了安装的速度比较快使用的是国内的docker安装镜像,具体的来说,使用的是ali云的docker安装镜像。注意这里说的是安装镜像,跟apt的源一样,只是用来安装docker用的。安装说明参考ali给的文档:

https://yq.aliyun.com/articles/110806

国内docker镜像源的修改

因为docker官方的镜像仓库在海外,国内访问还是比较慢的,所以我们需要修改一下,使用国内的docker镜像源。

注意,这里说的镜像源,不同于上一部分的安装源,这里说的是docker image存放的源,也就是docker hub。

以root权限,编辑/etc/docker/daemon.json文件,如果目录或者文件不存在,则直接创建就可以。这个文件是json格式的。在文件内添加如下内容:


{

    "registry-mirrors": ["https://registry.docker-cn.com"]

}

免 sudo 使用 docker

docker安装之后,默认,必须要用sudo去运行相关的docker命令,很不方便,这里做一下修改。

将用户加入 docker group 内。然后退出并重新登录。


sudo gpasswd -a ${USER} docker

重启 docker 服务


sudo service docker restart

切换当前会话到新 group 或者重启 X 会话


newgrp - docker

OR

pkill X

OR

ctrl alt backspace

注意,最后一步是必须的,否则因为 groups 命令获取到的是缓存的组信息,刚添加的组信息未能生效,所以 docker images 执行时同样有错。

到这里,已经可以happy的使用docker了,但是由于docker中是无法访问主机的显卡资源的,想要在docker内部用显卡,我们还得装一些特殊的东西。

nvidia-docker2的安装

这个工具可以打通docker内部的环境和主机上的显卡。没啥好说的,参考官方的文档安装就可以了:

https://github.com/NVIDIA/nvidia-docker/

不过,需要注意的是,这个安装的过程,会自动修改/etc/docker/daemon.json的内容,所以,我们刚刚添加的国内的docker镜像源的设置会被覆盖掉。所以我们要重新设置一下,经过编辑后,我的这个json文件内容如下:


{

    "registry-mirrors": ["https://registry.docker-cn.com"],

     "runtimes": {

        "nvidia": {

            "path": "nvidia-container-runtime",

            "runtimeArgs": []

        }

    }

}

做完这些,我们可以试着跑个nvidia的docker看看了:


docker run --runtime=nvidia --rm nvidia/cuda nvidia-smi

不出什么意外状况的话,你会看到主机上的显卡也能在docker中被正确的检测出来。

镜像的选择

nvidia自己以ubuntu的镜像为基础创建了一堆cuda的镜像:

https://hub.docker.com/r/nvidia/cuda/tags/

这些镜像中包含不同的cuda版本,以及不同的cuda库配置。

这里选用 9.1-cudnn7-runtime 这个标签的镜像作为基础。

构建docker镜像

这里使用的是docker build命令配合Dockerfile文件。

Dockerfile的语法参考 https://docs.docker.com/engine/reference/builder/

Dockerfile

文件内容如下


FROM nvidia/cuda:9.1-cudnn7-runtime



MAINTAINER dwSun



ADD sources.list /etc/apt/sources.list



RUN apt-get update

RUN apt-get install python3-pip libgfortran3 -y

RUN pip3 install mxnet-cu91mkl jupyter matplotlib seaborn pandas ipython scikit-image -i https://pypi.douban.com/simple/ && rm -rvf ~/.cache



RUN jupyter notebook --generate-config



RUN sed "s/#c.NotebookApp.token = '<generated>'/c.NotebookApp.token = 'mx_cuda'/" /root/.jupyter/jupyter_notebook_config.py -i



RUN mkdir /code



WORKDIR /code



EXPOSE 8888



CMD jupyter notebook --port=8888 --ip 0.0.0.0 --no-browser --allow-root

文件中有对sources.list文件的引用,这个文件跟Dockerfile放在同一个目录下面。文件为国内阿里的ubuntu镜像源,为的是apt-get的时候能够快一点,文件内容如下:


deb http://mirrors.aliyun.com/ubuntu/ xenial main restricted universe multiverse

deb http://mirrors.aliyun.com/ubuntu/ xenial-security main restricted universe multiverse

deb http://mirrors.aliyun.com/ubuntu/ xenial-updates main restricted universe multiverse

deb http://mirrors.aliyun.com/ubuntu/ xenial-proposed main restricted universe multiverse

deb http://mirrors.aliyun.com/ubuntu/ xenial-backports main restricted universe multiverse

也可以使用其他的国内linux源,具体细节参考各个linux源关于ubuntu的使用说明。

注意这里使用的是ubuntu16.04,而ubuntu16.04的版本号是xenial

docker内的文件需要使用volume传递给外界,所以这里的镜像预留了一个code目录作为运行目录,使用默认参数运行的话,会直接从code目录启动ipython kernel的gateway。

sed前后的两行是为了让hydrogen运行的时候,可以不用输入token,这里直接将token设置为了mx_cuda

更详细的内容,参考 https://nteract.gitbooks.io/hydrogen/docs/Usage/RemoteKernelConnection.html

build

Dockerfile所在的文件夹下面执行


docker build . -t mx_cuda

这里生成一个tag为mx_cuda的镜像。

需要注意的是,Dockerfile所在的文件会被整个发送给docker dameon作为编译的context,所以不要在这个文件夹里放其他没有意义的东西,更不要使用home目录。

hydrogen

介绍

参考:https://atom.io/packages/hydrogen

他们还有一个叫做nteract的项目,是桌面版本的notebook。参考 https://github.com/nteract/nteract

安装

使用apm或者直接在atom里面安装 hydrogen


apm install hydrogen

设置

找到hydrogen的设置,在 Kernel Gateways里面填写:


[{

  "name": "your config name",

  "options": {

    "baseUrl": "http://your_cuda_host_ip:port",

    "token": "mx_cuda"

  }

}]

运行

到cuda的主机里面执行以下命令,启动docker镜像里面的ipython kernel gateway。


docker run --runtime=nvidia -p 0.0.0.0:8888:8888 --rm mx_cuda -d

or

docker run --runtime=nvidia -p 0.0.0.0:8888:8888 --rm -v path:/code mx_cuda -d

在atom里面编写一个简单的mxnet测试脚本,使用ctrl+shift+p找到Hydrpgen: Connect to Remote Kernel并运行

然后就是实际的使用了。

不使用hydrogen

其实不使用hydrogen,也可以直接在浏览器里面直接输入http://your_cuda_host_ip:port,直接使用jupyter notebook。

注意事项

需要注意的是,因为我们是在远程调用的kernel,所以我们代码里面读取数据的部分,都是读取的kerenl所在机器的目录,也就是docker里面的目录,而不是我们写代码的ide启动的目录。

另外,你的代码如果有多个文件,那么,其实只有你编辑的那个文件能放到你的ide所在的机器上,其他的文件都要放在docker所在的那个显卡主机上,不然import是找不到的。也就是其实hydrogen的使用其限制跟jupyter notebook是一样的。

总结

其实这里是因为host的环境太复杂了,而且不好做变更,所以选了一个比较费劲而且折腾的办法,其中很多的步骤,可以抽出来,例如,可以直接在显卡主机上安装cuda和mxnet,使用同样的方式设置hydrogen。

之所以选hydrogen,是因为他的代码提示同时基于ipykernel和atom的python-ide,比jupyter爽太多了,而且不差jupyter中的交互式代码调试。不过毕竟hydrogen太小众,自己用用就好。如果是做演示的场合,老老实实用jupyter notebook吧。

posted on 2017-11-14 17:16 dwSun 阅读(...) 评论(...) 编辑 收藏

表情包
插入表情
评论将由博主筛选后显示,对所有人可见 | 还能输入1000个字符
相关推荐
©️2020 CSDN 皮肤主题: 技术黑板 设计师:CSDN官方博客 返回首页