最近遇见问题解决记录:RuntimeError: CUDA out of memory.Tried to allocate 20.00 MiB
大概总结了几种解决方法,大家可以试试:
1.将batchsize改小一些,直接改为1试试,如果可以了,再换回自己想要的size试试。我本身就是size设置为1的,试了很多方法,然后我尝试性的改为2,竟然就可以用了,大家可以多尝试几个size,不一定是更小的batch size。
2.参考了别人的回答
在报错哪一行前面加上下面两行:释放无关的内存:
if hasattr(torch.cuda, 'empty_cache'):
torch.cuda.empty_cache()
3.可以尝试更换gpu_id。
仅供个人学习记录与交流,若有侵权,可联系删除。