进行深度学习实验时,GPU 的实时状态监测十分有必要。今天详细解读一下 nvidia-smi 命令。
Linux下实时查看GPU状态
nvidia-smi
十秒显示一次GPU状态
watch -n 1 nvidia-smi
该命令用于列出所有可用的 NVIDIA 设备信息。
nvidia-smi -L
#使用多块GPU
import os
os.environ["CUDA_VISIBLE_DEVICES"] = "0,1"
进行深度学习实验时,GPU 的实时状态监测十分有必要。今天详细解读一下 nvidia-smi 命令。
Linux下实时查看GPU状态
nvidia-smi
十秒显示一次GPU状态
watch -n 1 nvidia-smi
该命令用于列出所有可用的 NVIDIA 设备信息。
nvidia-smi -L
#使用多块GPU
import os
os.environ["CUDA_VISIBLE_DEVICES"] = "0,1"