CUDA out of memory的一种神奇解决方法

我的输入样本维度是(1000,12,24,72),一开始我是这么输入数据的:

trainer.train(x_train, t_train, x_val, t_val)

发现必溢出,后来我取出其中400个样本输入:

trainer.train(x_train[:400], t_train[:400], x_val, t_val)

发现不溢出了,训练正常,然后我把400删掉,但没删冒号

trainer.train(x_train[:], t_train[:], x_val, t_val)

竟然也没有溢出!!!虽然训练速度降了,但是也能正常训练,我不是很懂原理是啥,好神奇!
但是样本量一大起来,即使用冒号法还是可能会溢出。比方说我后来把4000个样本作为x/t_train

>>>x_train.shape
(4000,12,24,72)
>>>t_train.shape
(4000,24)
>>>trainer.train(x_train[:], t_train[:], x_val, t_val)
RuntimeError:CUDA out of memory...

之所以说“可能”会溢出,是因为确实是有小概率能正常训练的,但是大部分情况还是会out of memory…

不过这真的是一个“神奇”的方法,能从一定程度上解决CUDA out of memory 的问题。希望大佬能解释一下这其中的原理~谢谢!
------------------------------------------------------------------------------------------------
再附上两个我昨天看到的两种不同的解决方案。

  • 一个是减少带梯度的中间变量(即非叶子节点)链接。简言之,能一行代码搞定的,尽量不要写成多行,即使写成多行,也要尽可能减少新变量的建立。
  • 另一个是在eval的时候,让所有的变量都不带梯度,链接。只需要添加一行代码:
with torch.no_grad():
	outputs = Net_(inputs)

with语句里的所有变量requires_grad都是False

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值