实战docker第二天——cuda11.8,pytorch基础环境docker打包

在容器化环境中打包CUDA和PyTorch基础环境,可以将所有相关的软件依赖和配置封装在一个Docker镜像中。这种方法确保了在不同环境中运行应用程序时的一致性和可移植性:

  1. Docker:提供了容器化技术,通过将应用程序及其所有依赖打包在一个镜像中,确保不同环境下的运行一致性。

  2. CUDA:NVIDIA的并行计算平台和编程模型,用于加速计算密集型应用程序,如深度学习。

  3. PyTorch:流行的深度学习框架,提供灵活的模型构建和训练功能,支持GPU加速。

  4. NVIDIA Docker:利用 nvidia-docker 工具,允许Docker容器访问宿主机上的GPU资源,实现CUDA加速。

  5. Dockerfile:定义镜像内容的文本文件,指定如何安装CUDA、PyTorch及其依赖。

意义:

  1. 一致性:容器确保在不同开发和生产环境中使用相同的CUDA和PyTorch版本,减少了因环境差异导致的问题。

  2. 可移植性:Docker镜像可以在任何支持Docker的系统上运行,包括本地机器、云服务和集群环境,提高了应用程序的可移植性。

  3. 隔离:通过容器隔离运行环境,避免了不同应用程序之间的依赖冲突和系统污染。

  4. 简化部署:预配置的Docker镜像简化了部署流程,减少了配置和安装的复杂性,特别是在涉及多个版本和依赖时。

  5. 版本管理:方便管理和切换不同版本的CUDA和PyTorch环境,以适应不同的需求或测试要求。

通过这些技术和方法,可以在Docker容器中创建一个稳定、可移植的深度学习环境,显著提升开发和部署效率。

一、拉取cuda11.8基础镜像

docker pull nvidia/cuda:11.8.0-cudnn8-devel-ubuntu22.04 

docker images

docker run -ti --name work nvidia/cuda:11.8.0-cudnn8-devel-ubuntu22.04 bash

二、环境配置 

安装python和pip: 


apt-get update

apt-get install wget

安装Anaconda3
wget https://repo.anaconda.com/archive/Anaconda3-2023.07-1-Linux-x86_64.sh
bash Anaconda3-2023.07-1-Linux-x86_64.sh

conda create -n f python=3.9

conda install pytorch==2.3.1 torchvision==0.18.1 torchaudio==2.3.1 pytorch-cuda=11.8 -c pytorch -c nvidia

 至此,cuda11.8,cudnn,python3.9,pytorch安装完成。

Ctrl+D退出镜像。

三、镜像打包

docker commit -a "work" -m "cuda118" fd83c27fa8f5 cuda118:v1

docker save cuda118 -o cuda118.tar

save将docker镜像保存为tar格式,放入服务器后,使用load,镜像就在服务器中了。

docker load -i cuda118.tar  

  • 4
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

学术菜鸟小晨

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值