深度学习在出现如下情况时,比较容易出现过拟合现象。
(1)样本选取出现问题。例如样本数量过少,样本标记错误,样本噪音过大等。
(2)训练模型过于复杂。模型的阶数过高等
(3)对于决策树模型,如果我们对于其生长没有合理的限制,其自由生长有可能使节点只包含单纯的事件数据(event)或非事件数据(no event),使其虽然可以完美匹配(拟合)训练数据,但是无法适应其他数据集。
(4)对于神经网络模型:a)对样本数据可能存在分类决策面不唯一,随着学习的进行,BP算法使权值可能收敛过于复杂的决策面;b)权值学习迭代次数足够多(Overtraining),拟合了训练数据中的噪声和训练样例中没有代表性的特征[1]。
解决过拟合的常用方法:
(1)正则化
(2)DropOut
(3)BatchNormalization
(4)提前终止训练
(1)正则化
正则化(regularization),是指在线性代数理论中,不适定问题通常是由一组线性代数方程定义的,而且这组方程组通常来源于有着很大的条件数的不适定反问题。大条件数意味着舍入误差或其它误差会严重地影响问题的结果[2]。我们所说的正则化,就是在原来的损失函数的基础上,加上了一些正则化项或者称为模型复杂度惩罚项。
我们为了解决过拟合的问题,常常采用L1正则化和L2正则化。 L1正