一、nvidia-smi参数含义
1.第一部分
NVIDIA-SMI–简称NVSMI
Driver version–驱动器版本
CUDA Version–CUDA版本
2.第二部分
1.GPU–GPU编号(有多块显卡的时候,从0开始编号)
2.Fan–风扇转速(0%-100%),N/A表示没有风扇
3.Name–GPU类型
4.Temp–GPU温度(GPU温度过高会导致GPU的频率下降)
5.Perf–GPU的性功能状态,从P0(最大性能)-P12(最小性能)
6.Persistence-M–持续模式的状态,持续模式一直开启的话耗能大,但在新的GPU应用启动时花费时间短
7.Pwr:Usage/Cap–耗能显示,使用情况/总共功率
8. Bus-Id–GPU总线相关显示
9.Disp.A–display activ GPU的显示是否初始化
10.Memory-Usage–显存使用情况/总共情况
11.Volatile GPU-Util–GPU使用率
12.Uncorr.ECC–是否开启错误检查和纠正技术,0-disabled;1-enabled,
13.Compute M.–计算模式,0/DEFAULT,1/EXCLUSIVE_PROCESS,2/PROHIBITED
14.MIG M.
3.第三部分processes
每个进程占用的显存使用率、进程号、占用的哪个GPU
GPU–
GI ID–
CI ID–
PID–
Type–进程类型,C表示计算进程,G表示图形进程,C+G表示都有
Process name–进程路径
GPU Memory Usage–GPU显存使用情况
二、nvidia-smi -l time
隔两秒刷新一下GPU状态:nvidia-smi -l -2
三、将监控结果写入文件
nvidia-smi -l 1 --format=csv --filename=report.csv --query-gpu=timestamp,name,index,utilization.gpu,memory.total,memory.used,power.draw
-l:隔多久记录一次
–format:结果记录文件格式是csv
–filename: 结果记录文件的名字
–query-gpu:记录哪些数据到csv文件
timestamp:时间戳
memory.total:显存大小
memory.total:显存使用了多少
utilization.gpu:GPU使用率
power.draw:显存功耗,对应Pwr:Usage
四、如果还想了解更更多的命令
nvidia-smi -h
nvidia-smi --help-query-gpu