上篇文章的那台MAC,那效率,啧啧,练个几百条数据的模型,那速度,啧啧,等得肠子痒。。
wsl共享主机显卡驱动,所以不需要单独再安装显卡驱动
看看显卡驱动:
nvidia-smi
进入正题:
精简安装
这里有两种安装方式,先看最简单的,我个人比较喜欢。
安装软件包
sudo apt-get install nvidia-cuda-toolkit nvidia-cudnn
检查安装
nvcc -V
出现下面内容表示安装成功
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2021 NVIDIA Corporation
Built on Thu_Nov_18_09:45:30_PST_2021
Cuda compilation tools, release 11.5, V11.5.119
Build cuda_11.5.r11.5/compiler.30672275_0
因为安装这个主要是给python或者其他ai计算加速,所以这样已经足够
python库安装
包括cuda和cudnn以及tensorrt
安装cuda
pip install cuda-python
然后安装cudnn(可选),
cudnn现在是tensorrt的一个可选项
这里要注意 nvidia-cudnn-cu11
因为我这里是ubuntu2022,用上面的方式安装的cuda版本是11.x,如果你的显示是12,则需要把cu11改为cu12
# CUDA 11 版的cuDNN
pip install nvidia-cudnn-cu11
# CUDA 12 版的cuDNN
pip install nvidia-cudnn-cu12
安装tensorrt
pip install --upgrade tensorrt-cu11 tensorrt-lean-cu11 tensorrt-dispatch-cu11
验证tensorrt安装代码
python3
>>> import tensorrt
>>> print(tensorrt.__version__)
>>> assert tensorrt.Builder(tensorrt.Logger())
使用类似的过程来验证 lean 和 dispatch 模块是否正常工作 预期:
python3
>>> import tensorrt_lean as trt
>>> print(trt.__version__)
>>> assert trt.Runtime(trt.Logger())
python3
>>> import tensorrt_dispatch as trt
>>> print(trt.__version__)
>>> assert trt.Runtime(trt.Logger())
就是这样,精简全部方式全部安装完成
总结其实就是这两条命令:
sudo apt-get install nvidia-cuda-toolkit nvidia-cudnn
pip install --upgrade cuda-python tensorrt-cu11 tensorrt-lean-cu11 tensorrt-dispatch-cu11
高级安装
高级安装是针对上面apt安装命令的
如果是做python开发,还得需要上面那条pip命令
我不喜欢麻烦的方式,作为一名合格的业余代码搬运工,省下时间用来养头发不香吗?
不过出于对各位扶到底的原则,我还是给出安装方式:
比上面的方式麻烦一点,所有的下载都需要与cuda下载的版本一致,否则会出现各种问题,这里演示今天(2024-09-10)官网展示的最新版本(12.6)版本:
各位大佬按照下面的命令一条一条执行即可:
顺序别错哈。。。。
# https://developer.nvidia.com/cuda-downloads?target_os=Linux&target_arch=x86_64&Distribution=WSL-Ubuntu&target_version=2.0&target_type=deb_local
wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pin
sudo cp cuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600
wget https://developer.download.nvidia.com/compute/cuda/12.6.1/local_installers/cuda-repo-wsl-ubuntu-12-6-local_12.6.1-1_amd64.deb
sudo dpkg -i cuda-repo-wsl-ubuntu-12-6-local_12.6.1-1_amd64.deb
sudo cp /var/cuda-repo-wsl-ubuntu-12-6-local/cuda-*-keyring.gpg /usr/share/keyrings/
# https://developer.nvidia.com/cudnn-downloads?target_os=Linux&target_arch=x86_64&Distribution=Ubuntu&target_version=24.04&target_type=deb_local
wget https://developer.download.nvidia.com/compute/cudnn/9.4.0/local_installers/cudnn-local-repo-ubuntu2404-9.4.0_1.0-1_amd64.deb
sudo dpkg -i cudnn-local-repo-ubuntu2404-9.4.0_1.0-1_amd64.deb
sudo cp /var/cudnn-local-repo-ubuntu2404-9.4.0/cudnn-*-keyring.gpg /usr/share/keyrings/
# https://developer.nvidia.com/tensorrt/download
wget https://developer.nvidia.com/downloads/compute/machine-learning/tensorrt/10.4.0/local_repo/nv-tensorrt-local-repo-ubuntu2404-10.4.0-cuda-12.6_1.0-1_amd64.deb
sudo dpkg -i nv-tensorrt-local-repo-ubuntu2404-10.4.0-cuda-12.6_1.0-1_amd64.deb
sudo apt-get update
sudo apt-get -y install cuda-toolkit-12-6 cudnn tensorrt
编辑.bashrc文件
vim ~/.bashrc
export CUDA_HOME=/usr/local/cuda-12.6
export PATH=$CUDA_HOME/bin:$PATH
export LD_LIBRARY_PATH=$CUDA_HOME/lib64:$LD_LIBRARY_PATH
刷新
source ~/.bashrc
如果tensorflow提示使只能CPU,什么AVX2 、FMA这类的,安装下面这个:
pip install tensorflow[and-cuda]