总结配置pytorch GPU环境的两种方法

踩了两天的坑,总结两种方法一步一步带你实现
使用到的软件我们全部按最新版来安装

一:安装anaconda

  1.打开anaconda官网
  anaconda官网

  由于本人英语不是很好,我打开了浏览器的翻译按钮,不过界面都是一样的

   2.滚动条拉到最后,点击个人版,进入下载页面
在这里插入图片描述

   3.点击下载
在这里插入图片描述

   4.待下载完成后,打开下载的可执行文件
在这里插入图片描述
   4.1点击第二个所有用户都可用
在这里插入图片描述
   4.2选择安装目录,我这里直接改为D盘
在这里插入图片描述
   4.3这里都打上

在这里插入图片描述
在这里插入图片描述

   4.4 去掉这两个√,点击Finish完成安装
在这里插入图片描述

二:检查更新显卡驱动

1.右键打开控制面板
在这里插入图片描述

1.1点击帮助→系统信息

在这里插入图片描述

1.2可以看到驱动版本为425.25
在这里插入图片描述

1.3点击组件,可以看到支持的CUDA最高位10.1版本

在这里插入图片描述




1.4下面是显卡驱动版本与cuda版本的对于关系图


\

在这里插入图片描述



\

2 可以在控制面版查看显卡型号




在这里插入图片描述



  NVIDIA官网https://www.nvidia.cn/Download/index.aspx?lang=cn#
2.2这里选择自己的显卡型号下载安装,我这里选择GeForce MX250,
在这里插入图片描述



2.3可以按照默认选项进行安装


在这里插入图片描述



\

2.4重新启动后可再次进入控制面板查看驱动版本和支持的CUDA版本




在这里插入图片描述




\

三:安装PyTorch

  (1):创建pytorch环境

  不同的项目需要的环境不同,anaconda可以很好的对各个环境进行管理
  1,点击Anaconda Prompt进入命令窗口
在这里插入图片描述

2前面的括号是当前的环境,base是环境的名字
在这里插入图片描述

3创建一个名为pytorch的环境
   3.1输入以下内容:

conda create -n pytorch python=3.8

  pytorch是环境的名字,可自行更改
  python=3.8是python的版本,可自行更改
在这里插入图片描述
  3.2上面列出了需要安装的一些包,输入y确认安装



4 切换到pytorch环境中

  4.1输入以下内容:

conda activate pytorch

在这里插入图片描述




可以看到前面括号变成了pytorch

  (2):切换为清华源镜像

   因为直接从官网下载pytorch还是下载其他的包都会非常慢,甚至下载中断,所以要切换到国内的一些镜像网站
1切换为清华源
运行如下命令:

conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/
conda config --set show_channel_urls yes

  可看到用户目录下生成了一个.condarc文件,里面的内容为镜像网站的索引

在这里插入图片描述

 (3):安装PyTorch

  方法1:PyTorch官网一键安装

1添加pytorch库
输入以下命令:

conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/pytorch/

2打开PyTorch官网
在这里插入图片描述





3选择对应的版本

  我这里选择10.2(暂时不知道是什么问题,我选择11.3的话,测试时返回flase)

  复制产生的命令

conda install pytorch torchvision torchaudio cudatoolkit=10.2

注意去掉后面的 -c pytorch ( -c pytorch是从pytorch官方地址下载,去掉才能从镜像网站下载)

4命令窗口中输入刚才复制的命令

conda install pytorch torchvision torchaudio cudatoolkit=10.2

5 测试

下载完成后
分别输入如下命令

Python
import torch
torch.cuda.is_available()

在这里插入图片描述
如果返回true
就是成功了



如果返回flase的话
1检查是否更新了显卡驱动
2降低CUDA版本进行下载(10.2/10.0等)

如果还是不成功可以看以下方法2



\

    方法2:PIP下载



方法1前的步骤不变

重新打开Anaconda Prompt命令窗口
我这里把刚才创建的环境删除
1 输入以下命令

conda remove -n pytorch --all

1.1创建pytorch环境

conda create -n pytorch python=3.8

1.2切换到pytorch环境

conda activate pytorch

(1.3切换到清华源

conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/
conda config --set show_channel_urls yes

因为方法一时创建的.condarc文件还在
所以我这里不进行操作了 )

2打开pytorch官网
1首先我们明确我们的任务
就是手动下载下面这三个包

	pytorch torchvision torchaudio 

我们需要先知道这几个包对应的版本各是多少

torch==1.9.0+cu102
torchvision==0.10.0+cu102
torchaudio===0.9.0

2.1 点击pip下载方式,选中生成的链接在浏览器打开

在这里插入图片描述

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-cVbFETIv-1636987267070)(htts://img-blog.csdnimg.cn/b37b09033486441098093ab12d9102ac.png?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBA5a2Q55Sw5ZGA,size_20,color_FFFFFF,t_70,g_se,x_16#pic_center)]



2.2按ctrl+F快捷键搜索,输入torch-1.9.0%2B

在这里插入图片描述
%2B是就“+”的意思 cp38是c-python3.8的意思

2.3同理下载 win64版

torchvision==0.10.0+cu102
torchaudio===0.9.0

我这里直接保存到用户目录下,方便以下操作

在这里插入图片描述
2.4回到命令窗口
输入:dir
可以看到这几个包

torch torchaudio torchvision

在这里插入图片描述

2.5输入:pip install torch 然后按Tab建自动补全
pip install “torch-1.10.0+cu102-cp38-cp38-win_amd64.whl”
回车确认安装

2.6 pip install torchaudio 然后按Tab建自动补全
回车确认安装

2.7 pip install torchvision然后按Tab建自动补全
回车确认安装

3测试
下载完成后
分别输入如下命令

Python
Import torch
torch.cuda.is_available()

在这里插入图片描述

返回true是成功了



\

四:下篇博文

  (1):下载Pycharm

  (2):选择已创建的pytorch环境创建项目

  • 12
    点赞
  • 67
    收藏
    觉得还不错? 一键收藏
  • 8
    评论
PyTorch是一个流行的深度学习框架,支持使用单个GPU或多个GPUs进行训练和测试。在使用单个GPU时,需要将模型和数据加载到GPU上。使用单个GPU进行训练和测试的示例代码如下: 示例代码如下: ```python #将模型加载到GPU device = torch.device('cuda:0') #选择第一个GPU model.to(device) #将数据加载到GPU x = x.to(device) y = y.to(device) #在GPU上进行前向传播 y_pred = model(x) #计算损失 loss = criterion(y_pred, y) #在GPU上进行反向传播 loss.backward() #更新权重 optimizer.step() ``` 使用多个GPU可以加快训练和测试的速度。PyTorch提供了两种GPU方法:DataParallel和DistributedDataParallel(DDP)。其中,DataParallel是在单台机器上使用多个GPU方法,而DDP是在多台机器上使用多个GPU方法。 使用DataParallel时,可以将模型和数据加载到单个GPU上,然后使用torch.nn.DataParallel将模型复制到其他GPU上。使用DataParallel进行训练和测试的示例代码如下: 示例代码如下: ```python #将模型加载到GPU device = torch.device('cuda:0') #选择第一个GPU model.to(device) #使用DataParallel将模型复制到其他GPU上 if torch.cuda.device_count() > 1: model = nn.DataParallel(model) #将数据加载到GPU x = x.to(device) y = y.to(device) #在GPU上进行前向传播 y_pred = model(x) #计算损失 loss = criterion(y_pred, y) #在GPU上进行反向传播 loss.backward() #更新权重 optimizer.step() ``` 使用DDP时,需要在多台机器上安装PyTorch和NCCL库,并按照官方文档中的说明进行配置。使用DDP进行训练和测试的示例代码如下: ```python #在每个进程中选择一个GPU device = torch.device('cuda', rank % torch.cuda.device_count()) #使用DistributedDataParallel初始化模型 model = nn.parallel.DistributedDataParallel(model, device_ids=[device]) #在GPU上进行前向传播 y_pred = model(x) #计算损失 loss = criterion(y_pred, y) #在GPU上进行反向传播 loss.backward() #更新权重 optimizer.step() ``` 以上就是PyTorch使用单个GPU和多个GPU进行训练和测试的方法。具体使用哪种方法,需要根据硬件和应用场景的要求进行选择。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值