train_loss不断下降,val_loss不断下降,网络仍有学习空间;
train_loss不断下降,val_loss趋于不变,网络过拟合;
train_loss趋于不变,val_loss不断下降,数据集有问题;
train_loss趋于不变,val_loss趋于不变,学习遇到瓶颈;
train_loss和val_loss不断上升,网络结构设计不当,训练超参数设计不当。
train_loss不断下降,val_loss不断下降,网络仍有学习空间;
train_loss不断下降,val_loss趋于不变,网络过拟合;
train_loss趋于不变,val_loss不断下降,数据集有问题;
train_loss趋于不变,val_loss趋于不变,学习遇到瓶颈;
train_loss和val_loss不断上升,网络结构设计不当,训练超参数设计不当。