在使用GPU进行深度学习的过程中,我们免不了与pytorch打交道,这时候就需要根据我们现有的硬件,选择版本合适的CUDA Toolkit,进而选择版本合适的pytorch。
下面我就梳理一下常用的查看CUDA Toolkit的命令已经pytorch的兼容关系:
1.检查当前硬件所支持的最高版本的CUDA Toolkit
nvidia-smi
运行之后,右上角显示的CUDA Version:12.2 是你的硬件所支持的最高版本的CUDA Toolkit。也就是说,你在下载CUDA Toolkit的时候,版本不可以超过12.2,但是低于12.2的CUDA Toolkit是可以配合你的GPU正常使用的。(下载CUDA Toolkit的方法是从英伟达官方网站上下载,到这里与pytorch没有任何关系)
2.检查你的电脑上现在安装的CUDA Toolkit的版本
nvcc --version
运行之后,显示:Cuda compilation tools, release 11.2, V11.2.152
也就是说,我现在安装的CUDA Toolkit的版本是11.2。
实际安装的CUDA Toolkit的版本要低于或者等于硬件支持的最高的CUDA Toolkit的版本。
3.选择pytorch版本
这里仅仅讲解选择pytorch版本问题,不讲解怎么安装pytorch的问题。
在安装pytorch的时候,一定要选择低于或者等于电脑上实际安装的CUDA Toolkit的版本。
以手动安装为例子,下图显示了我安装的torch的具体信息(这是手动安装时需要下载的whl文件):
该torch的版本是2.0.0
该torch适配的CUDA Toolkit的版本是11.8
该torch适配的Python的版本是3.11
该文件适用于在Windows系统下安装torch
其中我们要选择的就是CUDA Toolkit的版本,这里我选择了11.8,高于我现在安装的CUDA Toolkit的版本11.2,所以这样是不可以的,我需要选择一个可以适配低于CUDA Toolkit 11.2的torch。
最终我可以选择如下torch进行安装(当然,适配CUDA Toolkit 11.1的torch版本会比较低,适配的Python版本也比较低):