pytorch经常出现显存不足的情况,所以我们希望能够随时查看GPU时使用率。如果你是Nvidia的GPU
显示当前GPU使用情况,Nvidia自带了一个nvidia-smi的命令行工具,会显示显存使用情况:
$ nvidia-smi
查看所有相关进程
fuser -v /dev/nvidia*
删除sudo kill -9 pid号码
我们设置为每 10s 显示一次显存的情况:
$ watch -n 10 nvidia-smi
pytorch经常出现显存不足的情况,所以我们希望能够随时查看GPU时使用率。如果你是Nvidia的GPU
显示当前GPU使用情况,Nvidia自带了一个nvidia-smi的命令行工具,会显示显存使用情况:
$ nvidia-smi
查看所有相关进程
fuser -v /dev/nvidia*
删除sudo kill -9 pid号码
我们设置为每 10s 显示一次显存的情况:
$ watch -n 10 nvidia-smi