PyTorch中“CUDA out of memory”的调试笔记

1 问题描述

“RuntimeError: CUDA out of memory.”是PyTorch写作中常见的一种运行错误,这里我们将记录一下调试过程中发现的一些解决方案;

2 解决方案

2.1 模型较大——可以降低batch_size

一种常见的原因就是模型的参数量较多,此时降低batch_size是一种可行的方法

2.2 读取loss值时没有使用item()函数

这是我之前在写作中出现的一个错误,我需要使用loss值作为训练过程时的输出,不过在取的张量的值之后,没有只用item()函数,而是直接用int-tensor参与后面的运算,导致显存泄露;

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值