由于更换4060ti 16g新显卡,在本地配置深度学习环境。
1. WSL
管理员模式打开windows终端,输入:
wsl --install
此命令会启用 WSL 并安装 Ubuntu 发行版 Linux。通过 wsl -l -o 可以查看所有 Linux 的发行版:
通过wsl新安装的Linux默认是 WSL2
进入wsl也很简单,如下:
但出现上述警告,解决办法如下:
在Windows中的C:\Users\<your_username>目录下创建一个.wslconfig文件,然后在文件中写入如下内容
[experimental]
autoMemoryReclaim=gradual
networkingMode=mirrored
dnsTunneling=true
firewall=true
autoProxy=true
然后关闭wsl,命令是
wsl --shutdown
重新进入wsl,提示就消失了
后又出现下图问题:
只需输入下面代码
touch ~/.sudo_as_admin_successful
至此成功进入Ubuntu命令行
在Ubuntu中输入如下命令安装必要的系统依赖:
sudo apt-get update
sudo apt install gcc
由于本人科学上网,因此未配置国内源()
推荐安装zsh && Oh My Zsh
教程如下:
Oh My Zsh, 『 安装 & 配置 』 - 知乎 (zhihu.com)
2. 显卡驱动
windows已经装完驱动了,现在分别试一下在windows和Ubuntu下的nvidia-smi命令是否有用。
Ubuntu:
Windows
驱动版本略有不同,但不影响什么
3. CUDA && cuDNN
建议自己去官网查,我下的12.3,命令是:
wget https://developer.download.nvidia.com/compute/cuda/12.3.1/local_installers/cuda_12.3.1_545.23.08_linux.run
sudo sh cuda_12.3.1_545.23.08_linux.run
安装包还是挺大的,得下10多分钟
我只安装了 Toolkit,其他都没选
安装后,将如下内容添加到 ~/.bashrc
文件尾部:
export PATH=/usr/local/cuda/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH
通过 source ~/.bashrc
或 source ~/.zshrc
使路径立即生效。输入 nvcc -V
查看 CUDA 编译器驱动版本:
cuDNN安装也一样,但是版本得和上面的Toolkit匹配
下载完毕后运行如下命令进行解压:
tar -xvf cudnn-linux-x86_64-8.9.5.30_cuda12-archive.tar.xz
运行如下命令将其移动到CUDA目录:
sudo mv cudnn-*-archive/include/cudnn*.h /usr/local/cuda/include
sudo mv -P cudnn-*-archive/lib/libcudnn* /usr/local/cuda/lib64
sudo chmod a+r /usr/local/cuda/include/cudnn*.h /usr/local/cuda/lib64/libcudnn*
4. Python 虚拟环境
WSL2 自带Python 3.10,只需创建虚拟环境即可
sudo apt install python3.10-venv
mkdir ~/sdk
python3.10 -m venv ~/sdk/python310
source ~/sdk/python310/bin/activate
python虚拟环境管理见 python多环境管理(venv与virtualenv) - doublexi - 博客园 (cnblogs.com)
5. Pytorch
pip3 install torch torchvision torchaudio