【Linux】nvidia-smi 命令:显示GPU当前的状态

本文介绍了nvidia-smi命令的使用方法,包括显示GPU当前状态及如何设置定时刷新显存状态。nvidia-smi是一个跨平台工具,支持Linux和Windows Server 2008 R2以上的64位系统,通过它可以监控GPU使用情况并更改GPU状态。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


一、nvidia-smi 命令介绍

nvidia-sim 简称 NVSMI,提供监控 GPU 使用情况和更改 GPU 状态的功能,是一个跨平台工具,支持所有标准的 NVIDIA 驱动程序支持的 Linux 和 WindowsServer 2008 R2 开始的64位系统。

这个工具是N卡驱动附带的,只要装好驱动,就会有这个命令。


二、nvidia-smi 命令详解

1. 显示GPU当前的状态

在这里插入图片描述

表格参数详解:

  • GPU:本机中的GPU编号(有多块显卡的时候,从0开始编号)图上GPU的编号是:0
  • Fan:风扇转速(0%-100%),N/A表示没有风扇
  • Name:GPU类型,图上GPU的类型是:Tesla T4
  • Temp:GPU的温度(GPU温度过高会导致GPU的频率下降)
  • Perf:GPU的性能状态,从P0(最大性能)到P12(最小性能),图上是:P0
  • Persistence-M:持续模式的状态,持续模式虽然耗能大,但是在新的GPU应用启动时花费的时间更少,图上显示的是:off
  • Pwr:Usager/Cap:能耗表示,Usage:用了多少,Cap总共多少
  • Bus-Id:GPU总线相关显示,domain:bus:device.function
  • Disp.A:Display Active ,表示GPU的显示是否初始化
  • Memory-Usage:显存使用率
  • Volatile GPU-Util:GPU使用率
  • Uncorr. ECC:关于ECC的东西,是否开启错误检查和纠正技术,0/disabled,1/enabled
  • Compute M:计算模式,0/DEFAULT,1/EXCLUSIVE_PROCESS,2/PROHIBITED
  • Processes:显示每个进程占用的显存使用率、进程号、占用的哪个GPU

2. 隔几秒刷新一下显存状态:nvidia-smi -l 秒数

隔两秒刷新一下GPU的状态:nvidia-smi -l 2

在这里插入图片描述


参考链接

  1. GPU之nvidia-smi命令详解
<think>好的,我现在需要解决用户遇到的nvidia-smi命令未找到的问题。用户提到输入nvidia-smi显示“没有那个文件或目录”,这通常意味着系统没有正确安装NVIDIA驱动或者驱动文件路径有问题。 首先,我应该回忆之前处理类似问题的经验。根据引用[2],可能是在系统升级后,内核版本变化导致驱动不兼容。用户可能之前安装过驱动,但现在失效了。此外,引用[4]提到在Ubuntu/Debian系统上可以通过更新和安装指定版本的驱动来解决,这可能是一个通用的解决方法。 接下来,用户的问题可能涉及几个方面:驱动未安装、驱动安装但路径错误、或者环境变量问题。我需要分步骤引导用户检查这些可能性。 第一步,检查NVIDIA驱动是否安装。用户可以使用`nvcc -V`(引用[2])或者`lsmod | grep nvidia`来确认驱动模块是否加载。如果驱动未加载,可能需要重新安装或启动服务。 第二步,如果驱动已安装但路径错误,可能需要手动创建符号链接或者将路径添加到环境变量中。例如,检查`/usr/bin/nvidia-smi`是否存在,若不存在,可能驱动安装到了其他目录,如`/usr/lib/nvidia-xxx/bin`,这时候需要创建软链接。 第三步,考虑系统更新导致的问题。如引用[3]所述,内核升级可能导致驱动不兼容,此时需要重新安装与当前内核匹配的驱动版本。用户可能需要使用`sudo apt install nvidia-driver-xxx`来安装推荐的驱动版本,并重启系统。 第四步,对于WSL用户,如引用[5]提到的,虽然nvcc和nvidia-smi显示正常,但实际使用中可能会有问题,需要确保WSL的GPU支持已正确配置,可能需要更新WSL或安装特定版本的驱动。 此外,用户可能需要添加NVIDIA的官方仓库来获取最新驱动,确保安装源正确。还有可能需要禁用nouveau驱动,避免冲突。 最后,生成相关问题,帮助用户进一步排查,比如驱动安装后服务未启动、内核模块未加载、多显卡环境下的配置问题等。这些步骤需要结构清晰,逐步引导用户检查每个可能性,并提供具体的命令和解决方案。</think>### 解决方案:nvidia-smi命令未找到的修复步骤 #### 1. **确认NVIDIA驱动是否安装** - 检查驱动是否已安装: ```bash nvcc -V # 查看CUDA工具包版本(若已安装) lsmod | grep nvidia # 查看内核模块是否加载 ``` 如果驱动未安装,`lsmod`无输出且`nvcc -V`报错[^2]。 - **解决方案**:重新安装驱动: - Ubuntu/Debian: ```bash sudo apt update sudo apt install nvidia-driver-545 # 替换为推荐版本号[^4] ``` - CentOS: ```bash sudo yum install nvidia-driver-latest-dkms ``` 安装后重启系统。 #### 2. **检查驱动文件路径** - 手动查找`nvidia-smi`位置: ```bash find /usr -name "nvidia-smi" 2>/dev/null ``` 如果路径不在`/usr/bin`中,创建符号链接: ```bash sudo ln -s /usr/lib/nvidia-<版本号>/bin/nvidia-smi /usr/bin/nvidia-smi ``` #### 3. **处理内核升级导致的驱动失效** - 若系统升级后驱动失效(如CentOS): 1. 卸载旧驱动: ```bash sudo nvidia-uninstall ``` 2. 安装与当前内核匹配的驱动: ```bash uname -r # 查看内核版本 sudo yum install kernel-devel-$(uname -r) # 安装对应内核开发包 sudo reboot ``` #### 4. **WSL环境特殊处理(适用于Windows Subsystem for Linux)** - 确保Windows主机已安装最新NVIDIA驱动,并启用WSL GPU支持: 1. 更新Windows的NVIDIA驱动。 2. 在WSL配置文件中启用GPU: ```bash echo "export WSLGPU=1" >> ~/.bashrc source ~/.bashrc ``` #### 5. **验证驱动状态** - 重启后检查: ```bash nvidia-smi # 应显示GPU状态 systemctl status nvidia-driver.service # 检查服务是否运行(部分系统) ``` --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值