1.增加训练数据量
深度学习网络中需要训练的参数较多,需要更多的数据量才能获得稳定的训练结果,增加训练样本可以有效防止过拟合,数据不足的时候可以使用数据增强技术,例如在图像方面使用数据增强平移图像的位置、姿态、尺度、明暗等等。
2.合理的数据切分
针对现有数据集,可以将数据集进行切分,转化成训练集、测试集、验证集,针对切分的结果,可以用训练集训练深度学习网络,通过验证集来监督学习过程,在过拟合之前完成监督网络的学习过程,防止过拟合。
3.正则化方法
正则化是在损失函数上添加对训练参数的惩罚范数,添加范数惩罚对需要训练的参数进行约束,防止过拟合。常用的L1范数、L2范数,L1范数惩罚项目的将参数绝对值最小化,L2惩罚项目的将参数的平方和最小化。
4.Dropout
在深度学习网络中最常用的正则化技术通过引入Dropout层,随机丢掉一些神经元,即在每个训练批次中,忽略一定的神经元数量,减轻网络的过拟合现象。
5.提前结束训练
当loss不在减小的时候,应该提前结束训练。