今天在用PyTorch(GPU)跑项目时,布置好环境调通代码,第一次运行时,显卡可以正常使用,再次运行就报错,报错如下:
RuntimeError: CUDA out of memory. Tried to allocate 2.14 GiB (GPU 0; 6.00 GiB total capacity; 260.73 MiB already allocated; 3.38 GiB free; 1.19 GiB reserved in total by PyTorch)
注:我用的是NVIDIA GeForce GTX 1060 with Max-Q Design, 6144.0MB,怎么会出现可用内存很小呢,显然是说明PyTorch占用的GPU空间没有释放,导致下次运行时,出现CUDA out of memory。
1、输入 nvidia-smi
,会显示GPU的使用情况,以及占用GPU的应用程序
2、输入taskkill -PID 进程号 -F
结束占用的进程,比如
taskkill -PID 7632 -F