pytorch 在运行代码时,报错CUDA out of memory时候,的一些解决方法
pytorch 在运行代码时,报错CUDA out of memory时候,的一些解决方法
方法一:修改bachsize的大小。
bachsize越大,需要的空间越大,所以应该将bachsize适当调小一点。
方法二:修改每次处理的图片数量。
batchimage:每次处理的图片数量越多,则需要分配越多的内存,因此,当在自己的笔记本上跑小的模型的时候,出现内存错误,可以将batchimage的数目调小一点,这样需要的内存则要少一些。
方法三:修改数据集大小
如果在笔记本上跑代码时候,出现以上的内存不足问题
原创
2021-03-25 20:40:23 ·
1180 阅读 ·
0 评论