![cf84977bfdc6e3eade919fb8bc1791d7.png](https://img-blog.csdnimg.cn/img_convert/cf84977bfdc6e3eade919fb8bc1791d7.png)
相信很多初次接触GPU运算的同学,都会为配置GPU环境而苦恼不已。
1,如何来适配nvidia版本各个安装包的依赖
2,如何关联GPU系统库.so文件
3,如何用docker来封装GPU运行环境,适应各个集群
用docker部署的好处,我就不必多说了,大家自行体会。
今天小编主要来介绍如何结合nvidia-docker镜像,来关联GPU宿主机。
文章开始之前,先给大家简单介绍一下nvidia-docker的实现原理,如下图:
![fb2495ef49d1e703575afd2860774ff0.png](https://img-blog.csdnimg.cn/img_convert/fb2495ef49d1e703575afd2860774ff0.png)
容器启动流程大致为:docker --> dockerd --> docker-containerd-shim --> runc --> nvidia-container-runtime-hook --> libnvidia-container(cuda+nvml) --> nvidia-driver
以上流程,我就不一一介绍了,网上一大堆解释,小编这里给大家提炼出来如下三点