Centos7配置深度学习环境 CUDA 11.8+PyTorch 2.2.2

一、安装CUDA

1.选择CUDA版本

CUDA Toolkit Archive | NVIDIA Developer

 https://developer.nvidia.com/cuda-toolkit-archive

2.选择CUDA版本

选择系统类型、系统版本、安装方式

3.下载链接

4.下载CUDA

wget https://developer.download.nvidia.com/compute/cuda/11.8.0/local_installers/cuda_11.8.0_520.61.05_linux.run

5.提升文件权限为可执行 

chmod a+x cuda_11.8.0_520.61.05_linux.run

6.安装CUDA

./cuda_11.8.0_520.61.05_linux.run

7.安装过程

1)安装的时候输入accept

2)选择服务

根据自己要求选择服务,我们只安装CUDA Toolkit 11.8,光标分别移动到Driver、CUDA Demo Suite 11.8、CUDA Documentation 11.8,按空格键,去掉选择 

 3)修改Toolkit Options

光标移动到Options>>Toolkit Options,按回车,进入CUDA安装配置界面

 4)选择选项

去掉所有多选选项,特别是Create symbolic link from /usr/local/cuda选项,最好是去掉。这样安装完成后,是不会在/usr/local/下生成cuda软链接目录。这个软链接目录在安装过程中是不可修改的,当我们安装多版本CUDA时,会重复覆盖这个软链接目录,对我们使用CUDA会产生不必要的麻烦。

5)修改安装目录

CUDA默认安装在/usr/local/目录下,一般Change Toolkit Install Path可以不做修改。但如果是普通用户安装,需设定安装路径为用户主目录下,光标移动到Change Toolkit Install Path按回车,手动修改安装路径后按回车退出路径配置界面。

6)完成安装

光标移动到Done按回车,退出配置界面,回到开始界面,光标移动到Install按回车,开始安装,安装完成如下图。

7)添加环境变量并更新

vim ~/.bashrc
#如果是root用户安装在默认路径,普通用户环境变量配置如下示例:
export PATH=/usr/local/cuda-11.8/bin:$PATH
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda-11.8/lib64

#如果是普通用户安装在用户目录下,环境变量配置如下示例
export PATH=/home/apps/cuda-11.8/bin:$PATH
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/apps/cuda-11.8/lib64
source ~/.bashrc

8)查看cuda版本

nvcc -V

8.常见问题

问题1:遇到“Extraction failed. Ensure there is enough space in /tmp and that the installation package is not corrupt Signal caught, cleaning up”问题

mkdir /home/tmp
 
chmod 1777 /home/tmp
 
export TMPDIR=/home/tmp

./cuda_11.8.0_520.61.05_linux.run

二、安装PyTorch

1.选择CUDA相对应PyTorch版本

Previous PyTorch Versions | PyTorch 

https://pytorch.org/get-started/previous-versions/

2.安装PyTorch

# conda安装
conda install pytorch==2.3.0 torchvision==0.18.0 torchaudio==2.3.0 pytorch-cuda=11.8 -c pytorch -c nvidia

# pip安装
pip install torch==2.3.0 torchvision==0.18.0 torchaudio==2.3.0 --index-url https://download.pytorch.org/whl/cu118

3.可使用如下步骤测试

python

import torch

print(torch.cuda.is_available()) # cuda是否可用,可用返回TRUE,不可用返回false

print(torch.__version__) #查看torch版本

  • 18
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值