RuntimeError: CUDA out of memory. Tried to allocate XX.XX MiB. pytorch训练超出撑爆显存的问题

1、batch_size设置过大

这种比较好理解,就是单卡batch_size设置大了,数据量就大了,显存可能就放不下了。不过一般batch_size也不宜设置过小,不然如果batch里含有噪声数据其占比就会较大,对模型训练影响就比较大,有时就会把模型训飞了(亲身经历)。

如果batch_size已经调的较小了还是爆了显存,可能就是别的问题了,接着往下看。

2、中间变量多。删除清显存

一般pytorch模型动态图是写在模型类forward函数里,可以理解为显存里主要放了forward函数里的各个变量和其定义的动态计算图。所以定义动态图的时候少写中间变量,能用一行代码解决就用一行。

还有用torch.cuda.empty_cache()在一个batch训练完及时释放内存,比如

del outputs, loss                    # 先删除
torch.cuda.empty_cache()             # 再释放

这条我试了下,作用有但没那么大,治标不治本。接着往下。

3、检查梯度

还有一部分占用显存

  • 2
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值