如何检查pytorch版本以及cuda的版本

1、检查pytorch的版本

import torch
print(torch.__version__)

2、检查cuda的版本(pytorch所用的cuda版本)

首先确认本机gpu可用

import torch
print(torch.cuda.is_available())
print(torch.cuda.device_count()) # 查看gpu的数目
print(torch.cuda.get_device_name(0) # 基于序号获取gpu的名称,设备默认编号从0开始

然后,查看所用cuda版本,有两个版本需要查看:

  • 版本1:pytorch运行时真正用的版本,即安装的cuda_toolkit版本。

cuda_toolkit各各版本下载地址:CUDA Toolkit Archive | NVIDIA Developer

import torch
import torch.utils.cpp_extension
torch.utils.cpp_extension.CUDA_HOME  
  • 版本2:pytorch支持的cuda版本,比如torch+cuda102等,即编译该 Pytorch release 版本时使用的 cuda 版本。

import torch
torch.version.cuda

通过两种方式查看得到的cuda版本,正常来讲应该保持一致。

注意:还有一个cuda版本,即gpu驱动程序(gpu dirver)支持的cuda版本(显卡驱动下载地址:官方驱动 | NVIDIA),可以在nvidia显卡管理面板查看,也可以通过nvidia-smi命令查看。此版本为驱动程序支持的最大cuda版本。理论上,无论是安装的cuda_toolkit版本还是pytorch的gpu版本,其cuda版本号都不能大于gpu dirver支持的版本。

3、查看cudnn版本

cudnn版本的查看比较特殊,需要进入cuda_toolkit安装目录下,找到cudnn.h头文件,打开后,在开始的地方,可以看到三个大写的变量及对应的数字,分别是Major_version,minor_version等,把三个数字拼在一起,即cudnn的版本。

4、讨论:cuda-toolkit是否必须安装?

查阅相关资料后,发现很多人在只安装了显卡驱动的情况下,就已经可以在pytorch中使用gpu来训练和推理,根本无需额外安装cuda-toolkit,但是nvcc是肯定不能用的。实际上,cuda-toolkit是用来进行gpu编程的,这不是意味着只是使用pytorch的话,由于torch已经是编译完的(已经可以运行),因此才会出现此种情况。

至于是不是这样的的,大家可以自行尝试。

  • 5
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值