看loss调参
train loss 不断下降,test loss不断下降,说明网络仍在学习;
train loss 不断下降,test loss趋于不变,说明网络过拟合;
train loss 趋于不变,test loss不断下降,说明数据集100%有问题;
train loss 趋于不变,test loss趋于不变,说明学习遇到瓶颈,需要减小学习率或批量数目;
train loss 不断上升,test loss不断上升,说明网络结构设计不当,训练超参数设置不当,数据集经过清洗等问题。
学习率和loss曲线的关系
loss曲线波动幅度大怎么办?
增大batch size。
loss曲线上下跳动,不稳定,这和随机梯度下降时候设定的batch size有关系。batch size非常小的情况下,能让网络跳出鞍点,但会出现很大程度的不稳定;如果batch size设定大一些,会相对稳定一点,但容易陷在鞍点处。不过随着网络的加深,鞍点问题似乎得以缓解。