训练3D-Unet的时候,训练过程没有问题,但是在预测的时候,报了这个错误,上网查,说是显存不够。
但是,我的训练batch_size是比测试batch_size大的,也就是说,训练的时候比测试是更容易出现不够的情况的。所以觉得奇怪。
查了别人写的帖子,试了一些方法:
- 隔离GPU,在代码中添加 os.environ[“CUDA_VISIBLE_DEVICES”] = “-1”
- 指定GPU,添加 os.environ[“CUDA_VISIBLE_DEVICES”] = “2”
这两个方法都可以起作用。但是有些方法不行,比如指定另一块GPU,或者限制GPU使用率。我没有继续去探究是为什么,若有知道原因的人,还请不吝赐教,谢谢!