占显存类代码随手丢垃圾习惯的重要性

def calculate_similarity(model, image_1, image_2, draw=False):
    image_1_pil = Image.fromarray(image_1)
    image_2_pil = Image.fromarray(image_2)
    
    probability = model.detect_image(image_1_pil, image_2_pil, draw)
    '''
    每次跑完显存代码都释放显存
    '''
    torch.cuda.empty_cache()
    return probability

        当我写了一个多线程代码,但是没有释放显存的习惯时:

疯狂的爆OOM,

RuntimeError: CUDA out of memory. Tried to allocate 530.00 MiB (GPU 0; 2.00 GiB total capacity; 605.78 MiB already allocated; 206.31 MiB free; 612.00 MiB reserved in total by PyTorch)

非常的痛苦,

那么我们如何释放显存呢?

1. 把需要使用显存的代码,也就是需要调用CUDA的代码,打包为一个函数。

2.在函数的结尾加上。

'''
torch.cuda.empty_cache()`是PyTorch提供的函数,
用于清空当前GPU上的缓存。在深度学习模型训练过程中,
GPU显存可能会被一些中间结果占用而没有及时释放,
导致显存不足的问题。调用torch.cuda.empty_cache()可以手动清理这些未释放的显存,
确保GPU显存能够被有效地管理和利用。
这个函数通常在模型训练的迭代过程中的适当时机调用,
以避免显存占用过高而导致程序崩溃。
'''
torch.cuda.empty_cache()

  torch.cuda.empty_cache()`是PyTorch提供的函数,用于清空当前GPU上的缓存。在深度学习模型训练过程中,GPU显存可能会被一些中间结果占用而没有及时释放,导致显存不足的问题。调用torch.cuda.empty_cache()可以手动清理这些未释放的显存,确保GPU显存能够被有效地管理和利用。这个函数通常在模型训练的迭代过程中的适当时机调用,以避免显存占用过高而导致程序崩溃。

  • 9
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大气层煮月亮

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值