这个问题很少见人讨论,有人反馈说似乎是pytorch_lightning的bug,也有人说可能是验证集太小。
其实可能是你loss哪里处理错了,或者模型在跑第一个验证batch中间推理出了问题导致退出或者返回None之类的,所以val_loss不计算。
解决方法就是把一个batch的容量设成很小的值(比如5),逐句给validation_step()套try-except,检查是哪里出了问题
这个问题很少见人讨论,有人反馈说似乎是pytorch_lightning的bug,也有人说可能是验证集太小。
其实可能是你loss哪里处理错了,或者模型在跑第一个验证batch中间推理出了问题导致退出或者返回None之类的,所以val_loss不计算。
解决方法就是把一个batch的容量设成很小的值(比如5),逐句给validation_step()套try-except,检查是哪里出了问题