NVIDIA 不同显卡对应的GPU计算能力

  • Fermi (CUDA 3.2 until CUDA 8) (deprecated from CUDA 9):
    • SM20 or SM_20, compute_30 – Older cards such as GeForce 400, 500, 600, GT-630
  • Kepler (CUDA 5 and later):
    • SM30 or SM_30, compute_30 – Kepler architecture (generic – Tesla K40/K80, GeForce 700, GT-730)
      Adds support for unified memory programming
    • SM35 or SM_35, compute_35 – More specific Tesla K40
      Adds support for dynamic parallelism. Shows no real benefit over SM30 in my experience.
    • SM37 or SM_37, compute_37 – More specific Tesla K80
      Adds a few more registers. Shows no real benefit over SM30 in my experience
  • Maxwell (CUDA 6 and later):
    • SM50 or SM_50, compute_50 – Tesla/Quadro M series
    • SM52 or SM_52, compute_52 – Quadro M6000 , GeForce 900, GTX-970, GTX-980, GTX Titan X
    • SM53 or SM_53, compute_53 – Tegra (Jetson) TX1 / Tegra X1
  • Pascal (CUDA 8 and later)
    • SM60 or SM_60, compute_60 – GP100/Tesla P100 – DGX-1 (Generic Pascal)
    • SM61 or SM_61, compute_61 – GTX 1080, GTX 1070, GTX 1060, GTX 1050, GTX 1030, Titan Xp, Tesla P40, Tesla P4, Discrete GPU on the NVIDIA Drive PX2
    • SM62 or SM_62, compute_62 – Integrated GPU on the NVIDIA Drive PX2, Tegra (Jetson) TX2
  • Volta (CUDA 9 and later)
    • SM70 or SM_70, compute_70 – Tesla V100, GTX 1180 (GV104)
    • SM71 or SM_71, compute_71 – probably not implemented
    • SM72 or SM_72, compute_72 – currently unknown
  • Turing (CUDA 10 and later)
    • SM75 or SM_75, compute_75 – RTX 2080, Titan RTX, Quadro R8000

扫码关注

实用AI客栈

获取最新AI资讯与实战案例

小编微信号 : langu86

参考网址:http://arnon.dk/matching-sm-architectures-arch-and-gencode-for-various-nvidia-cards/

<think>好的,我现在要回答用户的问题:在没有Nvidia显卡的情况下,如何在Ubuntu 18.04上配置使用GPU的方法。首先,我需要理解用户的需求。用户可能有一块非NvidiaGPU,比如AMD或者Intel的集成显卡,想要在Ubuntu系统中启用它来进行图形处理或者计算任务,比如机器学习或者深度学习。不过,用户提到“使用GPU的方法”,这可能涉及到驱动安装和相关的计算框架支持。 首先,我需要确认Ubuntu 18.04支持哪些非NvidiaGPU。常见的非Nvidia GPU包括AMD的Radeon系列和Intel的集成显卡。对于这些显卡,Ubuntu通常自带开源驱动,比如对于AMD的amdgpu驱动,以及Intel的i915驱动。用户可能需要安装额外的驱动或计算框架来利用GPU计算能力,比如OpenCL或者Vulkan。 接下来,用户可能需要使用GPU进行加速计算,例如深度学习。由于没有Nvidia显卡,无法使用CUDA,但可以考虑其他替代方案,比如OpenCL或者ROCm(针对AMD显卡)。需要检查用户的GPU型号是否支持这些技术。 然后,我需要查阅相关资料,看看Ubuntu 18.04下如何配置这些驱动和框架。例如,安装AMD的ROCm平台可能需要添加特定的仓库,安装驱动和依赖项。对于Intel集成显卡,可能需要安装Intel的OpenCL运行时或使用Intel的Compute Runtime。 此外,用户可能想使用像TensorFlow或PyTorch这样的深度学习框架,但这些框架通常默认支持CUDA。不过,现在PyTorch也支持通过ROCm在AMD GPU上运行,但需要确认版本兼容性。例如,PyTorch的ROCm版本是否支持Ubuntu 18.04,以及用户的AMD显卡型号是否在支持列表中。 另外,如果用户只是想使用GPU进行图形显示,那么Ubuntu自带的开源驱动可能已经足够,不需要额外配置。但如果需要计算加速,可能需要更多的步骤。 现在需要整理步骤: 1. 确定GPU型号和品牌。 2. 安装对应的开源或专有驱动。 3. 配置计算框架,如OpenCL或ROCm。 4. 安装支持这些框架的深度学习库。 可能的问题包括驱动兼容性、框架支持的版本、以及性能优化。此外,用户需要注意Ubuntu 18.04的软件包版本可能较旧,可能需要添加第三方仓库或手动安装较新的软件。 例如,对于AMD显卡,安装ROCm的步骤可能包括: - 添加ROCm的APT仓库。 - 安装ROCm内核和用户空间驱动。 - 配置用户组和权限。 - 验证安装。 对于Intel显卡,可能需要安装intel-compute-runtime来启用OpenCL支持。 同时,用户可能需要安装Mesa驱动来支持Vulkan,这可以通过安装mesa-vulkan-drivers包来实现。 总结来说,步骤大致如下: 1. 确认GPU型号。 2. 安装对应的驱动(amdgpu、Intel HD Graphics驱动等)。 3. 安装计算框架如ROCm(AMD)或OpenCL(Intel)。 4. 配置深度学习框架以使用这些计算后端。 此外,可能需要处理依赖项和权限问题,例如将用户加入video或render组。 需要确保引用的资料中的内容是否相关。用户提供的引用都是关于安装Nvidia驱动的,这可能不适用于当前问题,但可以提醒用户如果使用Nvidia显卡需要那些步骤,而当前情况是相反的。因此,可能需要忽略这些引用,或者指出如果用户有Nvidia以外的GPU该如何处理。 最后,生成相关问题,例如如何检查GPU型号、如何安装AMD ROCm、如何配置PyTorch使用AMD GPU等。</think>### 非NVIDIA显卡GPU配置方法(Ubuntu 18.04) 若需在Ubuntu 18.04上使用非NVIDIA GPU(如AMD或Intel显卡),需根据显卡类型选择对应的驱动和计算框架。以下是具体步骤: --- #### **1. 确认GPU型号** 通过终端命令查看显卡信息: ```bash lspci | grep -i vga # 查看显卡型号 ``` - **AMD显卡**:需使用开源驱动`amdgpu`或专有驱动`amdgpu-pro`。 - **Intel集成显卡**:默认使用开源驱动`i915`,需安装Intel计算运行时。 --- #### **2. 安装驱动与计算框架** ##### **AMD显卡配置** 1. **安装开源驱动**(默认已集成): ```bash sudo apt install mesa-utils # 验证OpenGL支持 glxinfo | grep "OpenGL version" ``` 2. **安装ROCm(支持GPU计算)**: - 添加ROCm仓库: ```bash wget -qO - https://repo.radeon.com/rocm/rocm.gpg.key | sudo apt-key add - echo 'deb [arch=amd64] http://repo.radeon.com/rocm/apt/debian/ ubuntu main' | sudo tee /etc/apt/sources.list.d/rocm.list ``` - 安装ROCm: ```bash sudo apt update sudo apt install rocm-dkms # 安装内核模块和用户态工具 ``` - 配置用户权限: ```bash sudo usermod -a -G video $USER # 将当前用户加入video组 reboot # 重启生效 ``` - 验证安装: ```bash rocminfo # 查看ROCm设备信息 ``` ##### **Intel显卡配置** 1. **安装OpenCL支持**: ```bash sudo apt install intel-opencl-icd # 安装Intel OpenCL运行时 ``` 2. **安装计算运行时(可选)**: ```bash sudo apt install intel-compute-runtime # 支持更高性能计算 ``` --- #### **3. 配置深度学习框架** - **PyTorch(AMD GPU)**: - 安装支持ROCm的PyTorch版本: ```bash pip3 install torch torchvision --extra-index-url https://download.pytorch.org/whl/rocm5.2 ``` - 验证GPU是否可用: ```python import torch print(torch.cuda.is_available()) # 若返回True,则支持ROCm加速 ``` - **TensorFlow(OpenCL支持)**: - 使用`PlaidML`作为后端(支持AMD/Intel GPU): ```bash pip install plaidml-keras plaidbench plaidml-setup # 配置默认设备 ``` --- #### **4. 其他工具** - **Vulkan支持**(跨平台图形/计算API): ```bash sudo apt install mesa-vulkan-drivers vulkan-utils # 安装Vulkan驱动和工具 vulkaninfo # 验证支持情况 ``` --- #### **注意事项** 1. **兼容性检查**:部分旧型号GPU可能不支持ROCm或OpenCL加速,需参考厂商文档[^4]。 2. **性能差异**:非NVIDIA GPU深度学习任务中可能性能较弱,且框架支持有限。 ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

upDiff

你的鼓励将是我创作的最大动力!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值