使用GPU处理数据时显卡内存不够(Keras、tensorflow、pytorch等的Out of Memory报错)
在数据处理、机器学习时,如果数据量过大,或者Batch_size设置地太大,或者因为前一次使用GPU之后没有释放内存,导致GPU内存不足报错,keras报CUDA_ERROR_OUT_OF_MEMOR,pytorch报OOM错误等
-
查看Ubuntu缓存(每一秒刷新)
watch -n 1 free -m
-
查看Ubuntu显存(每一秒刷新)
watch -n 1 nvidia-smi
-
关闭之前使用了GPU的终端等
-
如果没有其它占用NVIDIA显卡内存的你之前运行的进程,那么就是数据太大,或者Batch_size太大,设置较小的Batch_size