【转载】Linux安装CUDA 和 cuDNN,以及CUDA个人环境和系统环境的切换

Linux服务器可以装多个cuda版本,可以在自己bashrc下切换,也可以切换默认的/usr/local/cuda指向的cuda版本。以下为会用到的一些内容,仅为转载。

查看目前虚拟环境pytorch使用的cuda版本。

正确查看方式:

想要查看 Pytorch 实际使用的运行时的 cuda 目录,可以直接输出之前介绍的 cpp_extension.py 中的 CUDA_HOME 变量。

import torch
import torch.utils
import torch.utils.cpp_extension
torch.utils.cpp_extension.CUDA_HOME        #输出 Pytorch 运行时使用的 cuda 

在这里插入图片描述
上面输出的/usr/local/cuda即为软链接的cuda版本。

不正确查看方式:

事实上,使用torch,version.cuda命令查看输出的 cuda 的版本并不一定是 Pytorch 在实际系统上运行时使用的 cuda 版本,而是编译该 Pytorch release 版本时使用的 cuda 版本。
在这里插入图片描述

参考:1. 查看pytorch运行时真正调用的cuda版本

CUDA和CUDNN的安装及检测

请参考,亲测可行

  1. 【Linux】安装CUDA 11.2 和 cuDNN 8.4.0并检查是否安装成功
  2. 服务器中安装多版本的cuda

注意安装完cuda后的环境变量配置,下面的配置是在~/.bashrc还是在/etc/profile中,取决于自己想改变的。如果一个服务器上有多个用户,前者只改变自己的cuda使用版本,后者改变默认的(即会影响别人的,如果别人用的是默认的)

export PATH=//usr/local/cuda-11.2/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda-11.2/lib64$LD_LIBRARY_PATH

nvcc -V和nvidia-smi出现的cuda版本不同

系统安装了多个,怎么查看不同的版本?nvcc -V和nvidia-smi显示的cuda版本不同?
是由于CUDA有两个主要的API:runtime(运行时) API和driver API,具体地请参考:

nvcc -V和nvidia-smi出现的cuda版本不同


以上均为转载且标明出处,侵删。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值