记一次Pytorch内存泄露的排查与处理

1.起因:

模型训练过程中内存占用不断增加,训练到30000轮左右已经占用到200G内存.

2.排查过程

查找了网上的一些内存泄漏排查方法,使用了memory_profiler objgraph  pympler这三个工具进行排查

参考链接如下:

Pytorch超出内存

pytorch内存泄漏分析案例 | list转tensor

memory_profiler的使用

python 内存监控模块之memory_profiler

Python 使用objgraph 定位内存泄露

排查python内存泄露中几个工具的使用

记一次python内存泄露的解决过程

pympler跟踪内存泄漏

最终发现内存泄露可能的原因是通过pympler工具,在tker.print_diff()时发现网络训练循环结束后,自定义的两个loss层的自动回传对象仍然未被释放.

3.解决

最终发现问题出在train_net.py中,loss += loss_iter语句,由于loss_iter是一个具有autograd历史的可微变量,因此loss直接加上loss_iter会导致autograd历史不断被保存,内存未被释放.

修改为loss += loss_iter.item()仅仅使用loss_iter数值后问题解决,运行程序在终端使用top命令与free -h命令发现内存不再增加了.

 

  • 5
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值