语义分割任务,在别人的代码上用uavid数据集做实验
训练的时候没有问题,但是在测试推理的时候batch_size为1居然会爆显存,只能推理一张图片,第二张就出错,排除了是第二张图片有问题的情况。试着在cpu上跑,可以运行。试着换成了cityscapes数据集,跑起来也没有问题,而且能跑很多张。
查看训练代码,发现在训练的时候图像进行了缩放,变成了480*480的大小,所以确定是图片大小的问题。
通过:
# 双线性插值
img = img.resize((1920, 1080), Image.BILINEAR)
# 最近邻插值
mask = mask.resize((1920, 1080), Image.NEAREST)
将图像缩小的原来的1/2,就可以运行啦。
对显示的影响:好像分割区域更加紧凑了,没有太多小点点