模型预测过程中:cuda out of memory

问题背景:

我用yolov7来检测logo,并且想把检测结果写到txt中作为标注文件,所以重写了detect.py,然后对目录下的图片重复调用detect函数。结果就是每次预测了1000张左右的图片后(文件夹一共有1w+图片)就会报错 cuda out of memory

解决过程:

首先,我从脚本启动开始不断在终端用 nvidia-smi 查看GPU使用情况,发现对应进程的显存占用随着检测过的图片数量而增加,最终爆炸。

我每次检测图片之前都会执行 to(device),所以显存占用会逐渐增加。那么解决方法就是释放掉被占用的显存。我先试了在每次检测后执行 torch.cuda.empty_cache(),然后再次运行脚本,发现还是爆炸。而且看了原代码,人家也没用这个命令,那么问题出在哪里呢?

后来百度之后找到了问题所在,原代码在检测前有一行代码:with torch.no_grad():

这个no_grad()在这里不是很重要,但是这个with很关键,就像with open() as f: 之后会自动关闭文件一样,加了这行代码之后,后面的代码运行完了它就会释放一次占用的资源!

好了,这不是一下子就说得通了!我确实是没有这行代码。

加上这句之后,问题顺利解决!

再查看GPU显存占用情况就会发现它会周期性地恢复到一个最低水平。

解决方法总结:

在调用检测的代码段之前加上 with torch.no_grad():

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
模型推理出现"RuntimeError: CUDA out of memory"错误是因为在GPU上使用的显存不足。这个错误通常发生在模型的输入数据量过大或模型占用的显存资源过多时。 解决这个问题可以采用以下方法: 1. 减少批处理大小:可以通过减少每次推理时的图像批处理大小来减少内存消耗。较小的批处理大小会减少每个批处理所需的显存量。 2. 减少模型的参数量:如果模型的参数量过大,可以尝试减少参数量来缓解显存不足的问题。可以通过减少模型的深度、宽度或者使用降低维度的技术(如降低卷积核的尺寸)来减少参数量。 3. 使用更高效的模型:可以考虑使用比原始模型更加轻量级和高效的模型结构。例如,可以使用MobileNet、EfficientNet等模型来代替较重的ResNet、VGG等模型。 4. 降低精度:可以尝试将模型的参数精度从32位浮点数降低为16位浮点数,以减少显存的使用量。这通常不会对模型的性能产生显著的影响,但会大幅度减少显存的使用。 5. 使用更大的显存:如果以上方法无法解决问题,可以考虑更换具有更大显存容量的GPU设备来运行模型推理。 总之,修复"RuntimeError: CUDA out of memory"错误的主要思路是通过减少模型参数量、降低精度、优化模型结构或减少输入数据量来减少GPU显存的使用。根据具体问题情况选择适当的解决方法,以确保模型能够在GPU上正常运行。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值