“loss的各种情况”
train loss | test loss | 情况 | 解决办法 |
---|---|---|---|
下降 | 下降 | 网络仍在学习(😄) | 增加EPOCH直到不再下降 |
下降 | 下降 | 网络过拟合(😦) | 减小层中units数 / 减小层数 / 简化网络结构 |
不变 | 下降 | 数据集有问题(😡) | 检查数据集 |
不变 | 不变 | 学习遇到瓶颈(😦) | 减小学习率 / 减小BATCH SIZE |
train loss | test loss | 情况 | 解决办法 |
---|---|---|---|
下降 | 波动下降 | 学习率过大 或 BATCHSIZE过大 | 如果收敛,可以不管 / 如果不收敛,减小学习率或BATCHSIZE |
收敛到较大值 | 收敛到较大值 | 可能是陷入了局部极小值 | 换一种带动量的optimizer试试 |