首先,在终端输入nvidia-smi
:
可以查看当前正常使用的GPU情况,如下图所示:
如果要一直刷进度 nvidia-smi -l
(一般看数据训练情况) nvidia-smi 实时刷新 实时显示显存使用情况
进程会一直刷出来~
想要终止其中某个/或几个GPU进程,可通过以下命令实现:kill -9 PID
现在要关闭占用2和3号GPU的四个进程的PID分别是:19341、19367、19341、19367
(其实,后2个和前2个是一样的,因为我在训练的时候指定了用2个GPU训练,实际只包含2个PID)