显卡驱动CUDA 和 pytorch CUDA 之间的区别

写在前面

我的 CUDA 版本是什么? 这个问题本身就是有问题的,因为没有搞清楚cuda的分类

  • 这里的 CUDA 说的是 Driver CUDA 还是 Runtime CUDA?
  • 如果是 Runtime CUDA,那系统可能有多个,说的是哪个?用 apt-get 装的?PyTorch 自带的?

想知道答案的话往下看,相信看完之后应该有所感悟

如何查看CUDA 版本

常见的查看CUDA版本的指令有如下几个

nvidia-smi
nvcc --version
python -c "import torch; print(torch.version.cuda)"

nvidia-smi

在这里插入图片描述

nvcc --version

我先在用的是Windows电脑,这里是一张Linux 网图
在这里插入图片描述

python -c “import torch; print(torch.version.cuda)”

在这里插入图片描述

为何三个指令 三种结果?

nvidia-smi

这个命令一旦装完显卡驱动(nvidia-driver)就可以使用了,驱动程序提供最底层的程序接口,直接与硬件打交道。插上显卡的计算机也必须要装上驱动程序才能使用显卡。所以 nvidia-smi 的输出几乎都是显卡的硬件信息。
系统同一时间只能安装一个版本的驱动程序,如果安装多套版本可能会导致未定义的错误,另外驱动程序保持最新版本即可。

那这里的 CUDA Version 是代表什么呢?其实驱动程序也有 CUDA,叫做 Driver CUDA,这里指的是 Driver CUDA 的版本。而几乎所有的框架程序,所使用的 CUDA 都不是 Driver CUDA,而是 NVIDIA 提供的更上层的编程接口,叫做 Runtime CUDA

nvcc 和 torch.version.cuda

首先 nvcc 是一个编译器,这个编译器是用户在安装 Runtime CUDA 的时候附带的。因此 nvcc 打印的是 Runtime CUDA 的版本。同样的,torch.version.cuda 打印的也是 Runtime CUDA 的版本,那这两个版本为什么也不同呢?我们需要先了解Runtime CUDA

Runtime CUDA

Runtime CUDA 是 NVIDIA 封装的上层接口,几乎所有的应用程序,都是直接调用 Runtime CUDA 的 API,而 Runtime CUDA 内部调用 Driver 的接口。所以通常所说的 CUDA 都是指的 Runtime CUDA(除非是驱动开发的人员)。另外 NVIDIA 有一个规则,Runtime CUDA 的版本号必须小于等于Driver CUDA 的版本号,所以 nvidia-smi 输出的 CUDA 版本可以理解为该系统所能安装的最高 CUDA 版本号是多少

安装方法

nvcc --version 输出的是当前安装的 CUDA 的版本,而系统同一时间还可以安装多套 CUDA,并且安装的方式还多种多样,一般来说有以下几种安装方式:

PyTorch 本身自带 CUDA

# 会自动安装 CUDA 10.2
pip3 install torch

# 会自动安装 CUDA 11.3
pip3 install torch --extra-index-url https://download.pytorch.org/whl/cu113

# 会自动安装 CUDA 11.6
pip3 install torch --extra-index-url https://download.pytorch.org/whl/cu116

有人可能会问:为什么装了 PyTorch 之后,没有 nvcc 这个命令,或是 nvcc --version 显示的 CUDA 和 PyTorch 安装的 CUDA 版本对不上?

上文说了,一个系统可能有多套 CUDA,如果 nvcc --version 显示的 CUDA 对不上号,是因为系统本身安装了其他版本的 CUDA。另外,PyTorch 自带的 CUDA 只包含库文件,没有 nvcc 编译器,所以没有 nvcc 这个命令。

通过 Ubuntu 的官方源安装

sudo apt-get install nvidia-cuda-toolkit

通过 conda 安装

conda search -c conda-forge cudatoolkit  # 列出所有可以安装的版本
conda install -c conda-forge cudatoolkit=xx.x.x
通过官方安装包访问下面的链接,可以下载到不同版本的安装包:toolkits
  • torch官网有详细的安装cuda的步骤,自己去官网找一下就好了
  • 7
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在Ubuntu上安装显卡驱动、CuDNN、CUDAPyTorch可以按照以下步骤进行: 1. 安装显卡驱动:可以通过以下几种方式安装显卡驱动: - 通过"Software & Updates"工具在“Additional Drivers”选项卡中选择一个适用于您的显卡型号的驱动程序,并点击“Apply Changes”进行安装。 - 通过命令行使用`ubuntu-drivers devices`命令查看可用的驱动,然后使用`sudo ubuntu-drivers autoinstall`命令自动安装推荐的驱动。 2. 安装CuDNN:CuDNN是NVIDIA加速库,可提供用于深度学习的GPU加速功能。可以按照以下步骤安装CuDNN: - 前往NVIDIA官方网站,下载适用于您的CUDA版本的CuDNN压缩文件(通常需要注册NVIDIA开发者账号)。 - 将CuDNN压缩文件解压缩到一个合适的位置,例如`~/cuda`文件夹。 - 打开终端,使用`cd`命令进入CuDNN解压缩文件的路径,并执行以下命令安装CuDNN: ``` sudo cp cuda/include/cudnn*.h /usr/local/cuda/include/ sudo cp cuda/lib64/libcudnn* /usr/local/cuda/lib64/ sudo chmod a+r /usr/local/cuda/include/cudnn*.h /usr/local/cuda/lib64/libcudnn* ``` 3. 安装CUDACUDA是用于在NVIDIA GPU上进行并行计算的平行计算平台和API。可以按照以下步骤安装CUDA: - 前往NVIDIA官方网站,选择适用于您的显卡和操作系统的CUDA版本,并下载对应的运行文件(通常需要注册NVIDIA开发者账号)。 - 打开终端,使用`cd`命令进入CUDA运行文件所在的目录,并执行以下命令安装CUDA: ``` sudo sh cuda*.run ``` - 执行安装向导中的步骤,根据提示进行安装配置,包括选择安装路径和设置环境变量。 - 安装完成后,可以通过执行`nvcc --version`命令验证CUDA的安装情况。 4. 安装PyTorchPyTorch是一个用于构建深度学习模型的开源Python库。可以按照以下方式安装PyTorch: - 打开终端,执行以下命令安装PyTorch: ``` pip install torch torchvision ``` - 在安装过程中,可能需要下载和编译一些依赖项。请耐心等待安装完成。 安装完成后,您可以在Ubuntu上使用显卡驱动、CuDNN、CUDAPyTorch进行深度学习任务。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值