显卡、显卡驱动、Nvcc、Cuda Driver、CudaToolkit 、Cudnn到底是什么?

显卡定义

显卡

显卡(Video card,Graphics card)全称显示接口卡,又称显示适配器,是计算机最基本配置、最重要的配件之一。显卡是电脑进行数模信号转换的设备,承担输出显示图形的任务。具体来说, 显卡接在电脑主板上,它将电脑的数字信号转换成模拟信号让显示器显示出来
原始的显卡一般都是集成在主板上,只完成最基本的信号输出工作,并不用来处理数据。随着显卡的迅速发展,就出现了GPU的概念,显卡也分为独立显卡和集成显卡。

独立显卡和集成显卡:
        集成显卡是指显卡集成在主板上,不能随意更换。
        独立显卡是作为一个独立的器件插在主板的AGP接口上的,可以随时更换升级。
        集成显卡使用物理内存,而独立显卡有自己的显存。
        同期推出的独立显卡的性能和速度要比集成显卡好、快。
        集成显卡和独立显卡都是有GPU的。

GPU主流生产厂商 :
        Intel:最主要的集成显卡供应商
        NVIDIA:最大的显卡供应商,有集成显卡和独立显卡
        AMD:第二大的独立显卡供应商
        注:并不是所有GPU都支持CUDA,CUDA是显卡厂商NVIDIA推出的运算平台。 

显卡驱动

显卡驱动是显卡跟计算机连接的桥梁,可以让计算机识别到GPU硬件,是必须正确安装的,不同厂商、不同型号的GPU对应不同的显卡驱动。

NVIDIA Driver,其实它就是一个NVIDIA显卡驱动软件。NVIDIA CUDA Driver包含在驱动程序中,通过它可以找到对应的CUDA版本。

显存

叫帧缓存,作用是用来存储GPU处理过或者即将提取的渲染数据,显存相对于GPU相当于内存对于CPU。

GPU含义

GPU

GPU这个概念是由Nvidia公司于1999年提出的。GPU是显卡上的一块芯片,就像CPU是主板上的一块芯片。
自Nvidia提出GPU这个概念后,GPU就进入了快速发展时期。简单来说,其经过了以下几个阶段的发展:
1) 仅用于图形渲染,此功能是GPU的初衷,这一点从它的名字就可以看出:Graphic Processing Unit,图形处理单元;
2)后来人们发现,GPU这么一个强大的器件只用于图形处理太浪费了,它应该用来做更多的工作,例如浮点运算。直接把浮点运算交给GPU是做不到的,因为它只能用于图形处理(那个时候)。最容易想到的,是把浮点运算做一些处理,包装成图形渲染任务,然后交给GPU来做。这就是 GPGPU(General Purpose GPU)的概念。不过这样做有一个缺点,就是你必须有一定的图形学知识,否则你不知道如何包装。
3)为了让不懂图形学知识的人也能体验到GPU运算的强大,Nvidia公司又提出了CUDA的概念。

  • GPU架构:Tesla、Fermi、Kepler、Maxwell、Pascal

  • 芯片型号:GT200、GK210、GM104、GF104等

  • 显卡系列(NVIDIA):GeForce、Quadro、Tesla

GPU架构

指的是硬件的设计方式,例如流处理器簇中有多少个core、是否有L1 or L2缓存、是否有双精度计算单元等等。每一代的架构是一种思想,如何去更好完成并行的思想。

芯片

就是对上述gpu架构思想的实现,例如芯片型号GT200中第二个字母代表是哪一代架构,有时会有100和200代的芯片,它们基本设计思路是跟这一代的架构一致,只是在细节上做了一些改变,例如GK210比GK110的寄存器就多一倍。有时候一张显卡里面可能有两张芯片,Tesla k80用了两块GK210芯片。这里第一代的gpu架构的命名也是Tesla,但现在基本已经没有这种设计的卡了,下文如果提到了会用Tesla架构和Tesla系列来进行区分。

显卡系列

在本质上并没有什么区别,只是NVIDIA希望区分成三种选择,GeFore用于家庭娱乐,Quadro用于工作站,而Tesla系列用于服务器。Tesla的k型号卡为了高性能科学计算而设计,比较突出的优点是双精度浮点运算能力高并且支持ECC内存,但是双精度能力好在深度学习训练上并没有什么卵用,所以Tesla系列又推出了M型号来做专门的训练深度学习网络的显卡。需要注意的是Tesla系列没有显示输出接口,它专注于数据计算而不是图形显示。

CUDA名称含义

CUDA

CUDA英文全称是Compute Unified Device Architecture,是显卡厂商NVIDIA推出的运算平台。 CUDA™是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。按照官方的说法是,CUDA是一个并行计算平台和编程模型,能够使得使用GPU进行通用计算变得简单和优雅

cudnn

这个其实就是一个专门为深度学习计算设计的软件库,里面提供了很多专门的计算函数,如卷积等。从上图也可以看到,还有很多其他的软件库和中间件,包括实现c++ STL的thrust、实现gpu版本blas的cublas、实现快速傅里叶变换的cuFFT、实现稀疏矩阵运算操作的cuSparse以及实现深度学习网络加速的cuDNN等等,具体细节可参阅GPU-Accelerated Libraries

CUDA Toolkit

参考CUDA Toolkit

CUDA Toolkit由以下组件组成:

  • Compiler: CUDA-C和CUDA-C++编译器NVCC位于bin/目录中。它建立在NVVM优化器之上,而NVVM优化器本身构建在LLVM编译器基础结构之上。希望开发人员可以使用nvm/目录下的Compiler SDK来直接针对NVVM进行开发。
  • Tools: 提供一些像profiler,debuggers等工具,这些工具可以从bin/目录中获取
  • Libraries: 下面列出的部分科学库和实用程序库可以在lib/目录中使用(Windows上的DLL位于bin/中),它们的接口在include/目录中可获取。
    • cudart: CUDA Runtime
    • cudadevrt: CUDA device runtime
    • cupti: CUDA profiling tools interface
    • nvml: NVIDIA management library
    • nvrtc: CUDA runtime compilation
    • cublas: BLAS (Basic Linear Algebra Subprograms,基础线性代数程序集)
    • cublas_device: BLAS kernel interface
    • ...
  • CUDA Samples: 演示如何使用各种CUDA和library API的代码示例。可在Linux和Mac上的samples/目录中获得,Windows上的路径是C:\ProgramData\NVIDIA Corporation\CUDA Samples中。在Linux和Mac上,samples/目录是只读的,如果要对它们进行修改,则必须将这些示例复制到另一个位置。
  • CUDA Driver: 运行CUDA应用程序需要系统至少有一个具有CUDA功能的GPU与CUDA工具包兼容的驱动程序。每个版本的CUDA工具包都对应一个最低版本的CUDA Driver,也就是说如果你安装的CUDA Driver版本比官方推荐的还低,那么很可能会无法正常运行。CUDA Driver是向后兼容的,这意味着根据CUDA的特定版本编译的应用程序将继续在后续发布的Driver上也能继续工作。通常为了方便,在安装CUDA Toolkit的时候会默认安装CUDA Driver。在开发阶段可以选择默认安装Driver,但是对于像Tesla GPU这样的商用情况时,建议在官方安装最新版本的Driver。
  • CUDA Toolkit和CUDA Driver版本的对应情况,参考官方Release Notes :: CUDA Toolkit Documentation
    CUDA ToolkitToolkit Driver Version
    Linux x86_64 Driver VersionWindows x86_64 Driver Version
    CUDA 11.4 Update 2>=470.57.02>=471.41
    CUDA 11.4 Update 1>=470.57.02>=471.41
    CUDA 11.4.0 GA>=470.42.01>=471.11
    CUDA 11.3.1 Update 1>=465.19.01>=465.89
    CUDA 11.3.0 GA>=465.19.01>=465.89
    CUDA 11.2.2 Update 2>=460.32.03>=461.33
    CUDA 11.2.1 Update 1>=460.32.03>=461.09
    CUDA 11.2.0 GA>=460.27.03>=460.82
    CUDA 11.1.1 Update 1>=455.32>=456.81
    CUDA 11.1 GA>=455.23>=456.38
    CUDA 11.0.3 Update 1>= 450.51.06>= 451.82
    CUDA 11.0.2 GA>= 450.51.05>= 451.48
    CUDA 11.0.1 RC>= 450.36.06>= 451.22
    CUDA 10.2.89>= 440.33>= 441.22
    CUDA 10.1 (10.1.105 general release, and updates)>= 418.39>= 418.96
    CUDA 10.0.130>= 410.48>= 411.31
    CUDA 9.2 (9.2.148 Update 1)>= 396.37>= 398.26
    CUDA 9.2 (9.2.88)>= 396.26>= 397.44
    CUDA 9.1 (9.1.85)>= 390.46>= 391.29
    CUDA 9.0 (9.0.76)>= 384.81>= 385.54
    CUDA 8.0 (8.0.61 GA2)>= 375.26>= 376.51
    CUDA 8.0 (8.0.44)>= 367.48>= 369.30
    CUDA 7.5 (7.5.16)>= 352.31>= 353.66
    CUDA 7.0 (7.0.28)>= 346.46>= 347.62

nvcc&nvidia-smi

nvcc

这个在前面已经介绍了,nvcc其实就是CUDA的编译器,可以从CUDA Toolkit的/bin目录中获取,类似于gcc就是c语言的编译器。由于程序是要经过编译器编程成可执行的二进制文件,而cuda程序有两种代码,一种是运行在cpu上的host代码,一种是运行在gpu上的device代码,所以nvcc编译器要保证两部分代码能够编译成二进制文件在不同的机器上执行。nvcc涉及到的文件后缀及相关意义如下表:

文件后缀意义
.cucuda源文件,包括host和device代码
.cup经过预处理的cuda源文件,编译选项--preprocess/-E
.cc源文件
.cc/.cxx/.cppc++源文件
.gpugpu中间文件,编译选项--gpu
.ptx类似汇编代码,编译选项--ptx
.o/.obj目标文件,编译选项--compile/-c
.a/.lib库文件,编译选项--lib/-lib
.res资源文件
.so共享目标文件,编译选项--shared/-shared
.cubincuda的二进制文件,编译选项-cubin

nvidia-smi 

nvidia-smi全程是NVIDIA System Management Interface ,它是一个基于前面介绍过的NVIDIA Management Library(NVML)构建的命令行实用工具,旨在帮助管理和监控NVIDIA GPU设备。

nvcc和ncidia-smi显示的CUDA版本不同?  

在我们实验室的服务器上nvcc --version显示的结果如下: 

nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2018 NVIDIA Corporation
Built on Tue_Jun_12_23:07:04_CDT_2018
Cuda compilation tools, release 9.2, V9.2.148

nvidia-smi显示结果如下:

+-----------------------------------------------------------------------------+
| NVIDIA-SMI 410.104      Driver Version: 410.104      CUDA Version: 10.0     |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  Tesla V100-PCIE...  On   | 00000000:01:00.0 Off |                  Off |
| N/A   28C    P0    26W / 250W |      0MiB / 16130MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+
|   1  Tesla P100-PCIE...  On   | 00000000:02:00.0 Off |                  Off |
| N/A   24C    P0    30W / 250W |      0MiB / 16280MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+

+-----------------------------------------------------------------------------+
| Processes:                                                       GPU Memory |
|  GPU       PID   Type   Process name                             Usage      |
|=============================================================================|
|  No running processes found                                                 |
+-----------------------------------------------------------------------------+

可以看到nvcc的CUDA 版本是9.2,而nvidia-smi的CUDA版本是10.0。很奇怪的是有时候绝大多数情况代码也能整成跑起来,stackoverflow上的一个解释如下:

CUDA有两个主要的API:runtime(运行时) APIdriver API。这两个API都有对应的CUDA版本(如9.2和10.0等)。

  • 用于支持driver API的必要文件(如libcuda.so)是由GPU driver installer安装的。nvidia-smi就属于这一类API。
  • 用于支持runtime API的必要文件(如libcudart.so以及nvcc)是由CUDA Toolkit installer安装的。(CUDA Toolkit Installer有时可能会集成了GPU driver Installer)。nvcc是与CUDA Toolkit一起安装的CUDA compiler-driver tool,它只知道它自身构建时的CUDA runtime版本。它不知道安装了什么版本的GPU driver,甚至不知道是否安装了GPU driver。

综上,如果driver API和runtime API的CUDA版本不一致可能是因为你使用的是单独的GPU driver installer,而不是CUDA Toolkit installer里的GPU driver installer。

 runtime和driver API区别

下图很清楚的展示前面提到的各种概念之间的关系,其中runtime和driver API在很多情况非常相似,也就是说用起来的效果是等价的,但是你不能混合使用这两个API,因为二者是互斥的。也就是说在开发过程中,你只能选择其中一种API。简单理解二者的区别就是:runtime是更高级的封装,开发人员用起来更方便,而driver API更接近底层,速度可能会更快。

两种API详细的区别如下:

  • 复杂性
    • runtime API通过提供隐式初始化、上下文管理和模块管理来简化设备代码管理。这使得代码更简单,但也缺乏驱动程序API所具有的控制级别。
    • 相比之下,driver API提供了更细粒度的控制,特别是在上下文和模块加载方面。实现内核启动要复杂得多,因为执行配置和内核参数必须用显式函数调用指定。
  • 控制
    • 对于runtime API,其在运行时,所有内核都在初始化期间自动加载,并在程序运行期间保持加载状态。
    • 而使用driver API,可以只加载当前需要的模块,甚至动态地重新加载模块。driver API也是语言独立的,因为它只处理cubin对象。
  • 上下文管理
    上下文管理可以通过driver API完成,但是在runtime API中不公开。相反,runtime API自己决定为线程使用哪个上下文:
    • 如果一个上下文通过driver API成为调用线程的当前上下文,runtime将使用它,
    • 如果没有这样的上下文,它将使用“主上下文(primary context)”。

主上下文会根据需要创建,每个设备每个进程一个上下文,并进行引用计数,然后在没有更多的引用时销毁它们。在一个进程中,所有runtime API的用户都将共享主上下文,除非上下文已成为每个线程的当前上下文。runtime使用的上下文,即当前上下文或主上下文,可以用cudaDeviceSynchronize()同步,也可以用cudaDeviceReset()销毁。
但是,将runtime API与主上下文一起使用会有tradeoff。例如,对于那些需要给较大的软件包写插件的开发者来说者会带来不少麻烦,因为如果所有的插件都在同一个进程中运行,它们将共享一个上下文,但可能无法相互通信。也就是说,如果其中一个在完成所有CUDA工作后调用cudaDeviceReset(),其他插件将失败,因为它们使用的上下文在它们不知情的情况下被破坏。为了避免这个问题,CUDA clients可以使用driver API来创建和设置当前上下文,然后使用runtime API来处理它。但是,上下文可能会消耗大量的资源,比如设备内存、额外的主机线程和设备上上下文切换的性能成本。当将driver API与基于runtime API(如cuBLAS或cuFFT)构建的库一起使用时,这种runtime-driver上下文共享非常重要。

参考:

看完就懂:GPU和显卡的关系,GPU和CUDA有什么关系?_nemo_0410的博客-CSDN博客

显卡,显卡驱动,nvcc, cuda driver,cudatoolkit,cudnn到底是什么? - marsggbo - 博客园

  • 1
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
### 回答1: 在Ubuntu 18下重新安装NVIDIA显卡驱动CUDA可以按照以下步骤进行: 1. 首先,打开终端并使用以下命令添加NVIDIA显卡驱动的PPA存储库: ```bash sudo add-apt-repository ppa:graphics-drivers/ppa sudo apt update ``` 2. 然后,使用以下命令安装适合您的显卡NVIDIA驱动: ```bash sudo apt install nvidia-driver-version ``` 在这里,将“driver-version”替换为您想要安装的NVIDIA驱动的确切版本号。 3. 安装完成后,重新启动系统以使驱动程序生效: ```bash sudo reboot ``` 4. 在系统重启后,您可以验证NVIDIA驱动程序是否正确安装,使用以下命令可以查看当前正在使用的显卡驱动版本: ```bash nvidia-smi ``` 5. 接下来,安装CUDA工具包。首先,下载相应的CUDA Toolkit安装包,可从NVIDIA官方网站下载,并按照其提供的说明进行安装。 6. 安装完成后,设置CUDA环境变量。打开终端并编辑.bashrc文件: ```bash nano ~/.bashrc ``` 在文件末尾添加以下行: ```bash export PATH="/usr/local/cuda/bin:$PATH" export LD_LIBRARY_PATH="/usr/local/cuda/lib64:$LD_LIBRARY_PATH" ``` 保存并关闭.bashrc文件,然后运行以下命令以使更改生效: ```bash source ~/.bashrc ``` 7. 最后,验证CUDA是否成功安装。在终端中运行以下命令来显示CUDA版本号: ```bash nvcc --version ``` 如果成功安装和配置了NVIDIA显卡驱动CUDA,将显示相关版本号。 注意:在此过程中,确保您的系统有足够的硬件要求来支持NVIDIA显卡驱动CUDA工具包,同时遵循官方文档上的更新说明。 ### 回答2: 重新安装NVIDIA显卡驱动CUDA在Ubuntu 18中可以按照以下步骤进行: 1. 首先,打开终端窗口,可以通过按下Ctrl + Alt + T键来快速打开终端。 2. 输入以下命令来更新系统软件包列表: sudo apt update 3. 安装NVIDIA显卡驱动,可以根据您的显卡型号选择不同的驱动版本。以NVIDIA官方驱动为例,输入以下命令: sudo apt install nvidia-driver-<version> 注意,将<version>替换为您选择的驱动程序版本号,例如:nvidia-driver-460。 4. 安装NVIDIA CUDA。首先,从NVIDIA官方网站下载与您的显卡驱动兼容的CUDA版本。然后,双击下载的CUDA安装包进行安装,按照提示进行操作。 5. 安装完成后,通过以下命令更新环境变量: sudo ldconfig 6. 重新启动计算机,以应用新的驱动和CUDA设置。 完成这些步骤后,您的Ubuntu 18系统将重新安装NVIDIA显卡驱动CUDA。您可以使用NVIDIA系统管理工具(如NVIDIA X Server设置)来调整显卡CUDA的设置。 ### 回答3: 重新安装Nvidia显卡驱动CUDA在Ubuntu 18上是相对简单的过程。下面是具体的步骤: 1. 确保你的系统已连接到互联网并且已更新到最新的软件包。你可以使用以下命令来更新系统: ``` sudo apt update sudo apt upgrade ``` 2. 卸载现有的Nvidia驱动。首先,使用以下命令查找系统上已安装的Nvidia驱动版本: ``` nvidia-smi ``` 然后,使用以下命令来卸载驱动程序(记得将"YOUR_VERSION"替换为实际的驱动版本): ``` sudo apt purge nvidia-"YOUR_VERSION" ``` 3. 重启系统。使用以下命令来重新启动计算机: ``` sudo reboot ``` 4. 安装新的Nvidia驱动。可以通过访问Nvidia官方网站(https://www.nvidia.com/Download/index.aspx)来下载最新的适用于你的显卡的驱动程序。下载完成后,按Ctrl+Alt+F2切换到虚拟终端(如果你还未在图形界面登录的话)。 5. 停止图形界面。输入以下命令以停止显示管理器服务: ``` sudo service lightdm stop ``` 6. 进入安装路径。使用cd命令进入你下载Nvidia驱动的路径。然后,使用以下命令将驱动程序赋予执行权限: ``` chmod +x NVIDIA-Linux-x86_64-xxx.xx.run ``` 7. 安装驱动程序。运行以下命令以开始驱动程序的安装过程: ``` sudo ./NVIDIA-Linux-x86_64-xxx.xx.run ``` 在安装过程中,选择"是"来安装驱动程序和相应的组件。 8. 重启系统。安装完成后,使用以下命令重新启动计算机: ``` sudo reboot ``` 9. 安装CUDA。如果你还未安装CUDA,可以通过Nvidia官方网站(https://developer.nvidia.com/cuda-downloads)下载适用于你的显卡CUDA版本。下载完成后,按Ctrl+Alt+F2切换到虚拟终端,并按照CUDA的官方文档进行安装步骤。 10. 验证安装。最后,使用以下命令来验证Nvidia驱动和CUDA是否成功安装: ``` nvidia-smi nvcc --version ``` 如果这两个命令分别显示了你的Nvidia显卡信息和CUDA版本信息,那么你已成功重新安装Nvidia显卡驱动CUDA

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值