内容原文:https://morvanzhou.github.io/tutorials/machine-learning/torch/
在神经网络的训练学习中,有可能会因为各种各样的问题使得神经网络学习效率不高,或者因为干扰太多,学到最后也并没有学到太多规律,导致这些问题的原因有很多,可能是数据的问题,可能是学习效率等参数的问题。
1、为了解决这些问题,我们通常将数据分为训练数据(70%)和测试数据(30%)
2、误差:画出误差曲线
3、精度:
4、过拟合,泛化能力不够,也就是只是学习了并没有把学习到的东西进行扩展
我们可以通过DropOut、L1/L2正规化的方法来提高模型的泛化能力。