解决方案
1、将模型的输入尺寸变小【亲则有用】
2、调小batch_size、number_workers
3、清除缓存【作用不大】
torch.cuda.empty_cache()
4、不使用梯度(一般在测试代码过程不需要使用梯度)
with torch.no_grad()【如果是train过程,报错:cuda out of memory,则该方法没用】
5、如果有条件加显卡,采用一机多卡策略
解决方案
1、将模型的输入尺寸变小【亲则有用】
2、调小batch_size、number_workers
3、清除缓存【作用不大】
torch.cuda.empty_cache()
4、不使用梯度(一般在测试代码过程不需要使用梯度)
with torch.no_grad()【如果是train过程,报错:cuda out of memory,则该方法没用】
5、如果有条件加显卡,采用一机多卡策略