仅作为记录,大佬请跳过。
仅需减小batchsize
展示:
即可运行。
注
博主的这个程序减小batchsize就行了,可能不同的博友们的程序不一样,也有的大佬博主使用不计算梯度
或释放内存
的方式
with torch.no_grad()
if hasattr(torch.cuda, 'empty_cache'):
torch.cuda.empty_cache()
仅作为记录,大佬请跳过。
仅需减小batchsize
展示:
即可运行。
注
博主的这个程序减小batchsize就行了,可能不同的博友们的程序不一样,也有的大佬博主使用不计算梯度
或释放内存
的方式
with torch.no_grad()
if hasattr(torch.cuda, 'empty_cache'):
torch.cuda.empty_cache()