Kaggle官方提供的GPU频繁断开,被迫在自己的机器上跑Kernal,显卡是贫民配置1050TI,显存4GB。训练无法开始,直接报错RuntimeError: CUDA out of memory
,尝试多种方法后解决,现在能够龟速训练了。
1.修改Dataloader
中的num_worker
参数为0(似乎仅针对windows系统下)
2.缩小batch_size
3.把训练的代码块放入if __name__=='__main__':
中
Kaggle官方提供的GPU频繁断开,被迫在自己的机器上跑Kernal,显卡是贫民配置1050TI,显存4GB。训练无法开始,直接报错RuntimeError: CUDA out of memory
,尝试多种方法后解决,现在能够龟速训练了。
1.修改Dataloader
中的num_worker
参数为0(似乎仅针对windows系统下)
2.缩小batch_size
3.把训练的代码块放入if __name__=='__main__':
中