调试GPU程序错误《CUDA out of memory》
问题描述我们在跑深度学习程序的时候,经常会遇到CUDA out of memory,一些简单的方案比如缩小Batch Size及时的把不用的变量移动到CPU上执行empty_cache()避免GPU变量累积,例如涉及到GPU变量的跨轮次的加操作和append操作如果上述的方法依然没有解决问题,可以通过分析GPU上的变量来进行相关的调试:def debug_memory(): import collections, gc, resource, torch print('max





