【Debug记录】CUDA out of memory.|显存不足|xx GiB reserved in total by PyTorch

“RuntimeError: CUDA out of memory. Tried to allocate 2.00 GiB (GPU 0; 10.76 GiB total capacity; 7.67 GiB already allocated; 1.73 GiB free; 8.20 GiB reserved in total by PyTorch)”

报错原因: “运行时错误:CUDA内存不足。尝试分配2.00 GiB(GPU 0;总容量10.76 GiB;已分配7.67 GiB;1.73 GiB可用;PyTorch总共保留8.20 GiB)“

报错原因: 显存不足。(只是导入一个三维图像,使用unet模型,batchsize为1,numworks为0,在训练每个epoch后释放缓存torch.cuda.empty_cache(),验证数据时不计算梯度with torch.no_grad())

就是单纯的显存不足啊,(256,256,256)的图像怎么能是2080ti跑的了的呢。

解决方案:
plan A:租张更大的卡试试(不可行,3090也可能还会爆)
plan B:提前预处理,进行切patch操作,(64,64,64)差不多ok(可行,技术解决是硬道理)

参考博文:(原创、不是重复文章)xxx GiB reserved in total by PyTorch的问题

总结: 如果常见的解决OOM的方法都试过了,但自己的还是没解决,那就不要怀疑也不要犹豫了,就是单纯的不够大啊!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值