本地深度学习环境配置

本地深度学习环境配置

1.安装NVIDA驱动,CUDA和CuDNN
通过NVIDA控制面板-系统信息-组件,查看显卡支持的CUDA版本,根据CUDA版本安装相应CuDNN;
在这里插入图片描述

驱动:https://www.nvidia.cn/geforce/drivers/
CuDNN:https://developer.nvidia.com/rdp/cudnn-archive#a-collapse742-10

下载好的CuDNN(11.1版本)解压后所有文件夹放到NVIDIA GPU Computing Toolkit\CUDA\v11.1文件夹下。
30系显卡只支持CUDA11,pytorch目前(2021/4/23)支持CUDA11.1

2.conda安装pytorch不稳定(镜像也不稳定),pip快且稳定
Pytorch官网:https://pytorch.org/get-started/locally/
Anaconda Prompt窗口输入命令

pip3 install t
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要在Docker中配置深度学习环境,您可以按照以下步骤进行操作: 1. 安装Docker:如果您还没有安装Docker,请根据您的操作系统(Windows、Mac或Linux)在Docker官方网站上下载并安装Docker。 2. 创建一个Docker镜像:您可以使用已经预先配置好的深度学习镜像,例如NVIDIA提供的nvidia-docker镜像,或者您可以自己构建一个包含必要组件和库的镜像。在这里,我们以自己构建镜像为例。 3. 编写Dockerfile:创建一个名为Dockerfile的文本文件,在其中定义您的镜像。以下是一个示例Dockerfile: ``` FROM nvidia/cuda:11.2.0-cudnn8-runtime-ubuntu20.04 # 安装系统依赖 RUN apt-get update && apt-get install -y \ python3 \ python3-pip \ git \ && rm -rf /var/lib/apt/lists/* # 安装深度学习相关库 RUN pip3 install tensorflow-gpu==2.4.1 \ keras==2.4.3 \ numpy \ matplotlib \ jupyterlab # 设置工作目录 WORKDIR /app # 复制项目代码到容器中 COPY . /app # 设置启动命令 CMD ["jupyter", "lab", "--ip=0.0.0.0", "--port=8888", "--allow-root"] ``` 在上述示例中,我们使用了基于Ubuntu 20.04的NVIDIA CUDA和cuDNN的运行时镜像,并安装了Python、Git以及一些常用的深度学习库。您可以根据自己的需求自定义Dockerfile。 4. 构建镜像:在创建好Dockerfile后,使用以下命令在终端中构建镜像(确保当前目录包含Dockerfile): ``` docker build -t deep-learning-env . ``` 这将会根据Dockerfile创建一个名为deep-learning-env的镜像。 5. 运行容器:运行以下命令启动一个容器,并将本地的一个目录挂载到容器中,以便在容器中进行文件的读写操作: ``` docker run -it --gpus all -v /path/to/local/directory:/app deep-learning-env ``` 在上述命令中,`/path/to/local/directory`是您本地文件系统中的目录,您可以将其替换为您自己的目录。这样,您就可以在容器中进行深度学习相关的开发和实验了。 希望以上步骤能帮助您成功配置深度学习环境。如有任何问题,请随时向我提问。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值