pytorch训练过程中内存一直慢慢增长直到爆

博客讲述了在PyTorch中进行深度学习训练时遇到的内存问题。作者最初认为是参数传递或内存释放不当导致内存持续增长,尝试了Python的内存管理技巧但未解决问题。最终发现是由于缺少`torch.no_grad()`上下文管理器,导致每次网络前向传播时保存了梯度,从而大幅消耗内存。解决方案是使用`torch.no_grad()`防止反向传播时保存梯度,有效解决了内存溢出问题。
摘要由CSDN通过智能技术生成

原因:代码中需要多次用到一个高维tensor变量,每一个batch都要更新一次它的值,这个值的获得需要数据集过一次网络
心路历程:刚开始以为是传参或者内存释放的问题,去深入研究了python高级用法,用了很多del、gc.collect()语句,发现内存释放不掉,还是随着训练过程逐渐增长
最终解决:因为是把两个代码的方法往一个整合,又仔细看了源码,发现源代码过网络的时候用了with torch.no_grad()这个语句,就试了一下,没想到就是这个问题,困了我两三天啊啊啊
分析:如果没有这个语句的话,因为要反向求导,pytorch就会创建变量保存梯度,跟这个高维tensor“体量”差不多的东西,如果每过一次网络保存一次梯度,这个内存消耗就非常大了,最终cuda memory out

  • 11
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 14
    评论
评论 14
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值