在学习fastai教程时,使用jupyter执行第一个深度学习模型时就总是报内存不够,难道好不容易安装好的nvidia显卡还不能用了?
RuntimeError: CUDA out of memory. Tried to allocate 20.00 MiB (GPU 0; 1.96 GiB total capacity; 1.42 GiB already allocated; 4.75 MiB free; 1.44 GiB reserved in total by PyTorch)
显卡内存是有点小,不过小点就一次少用点呗,PyTorch应该有相应的参数可以调节一次使用的内存的.发现函数ImageDataLoaders.from_name_fun有个参数bs可以设置一批处理的数据量.通过不段调整bs的值发现设置为16时模型能够成功训练成功,并用时最短: