深度学习中过拟合问题

深度学习过拟合可能由样本问题、模型复杂度过高、决策树过度生长或神经网络权重迭代过多引起。解决方法包括正则化、DropOut和BatchNormalization。正则化通过添加L1或L2惩罚项降低模型复杂度;DropOut随机归零部分权重以平衡节点重要性;BatchNormalization通过输入归一化加速训练并防止过拟合。
摘要由CSDN通过智能技术生成

   深度学习在出现如下情况时,比较容易出现过拟合现象。

    (1)样本选取出现问题。例如样本数量过少,样本标记错误,样本噪音过大等。

    (2)训练模型过于复杂。模型的阶数过高等

    (3)对于决策树模型,如果我们对于其生长没有合理的限制,其自由生长有可能使节点只包含单纯的事件数据(event)或非事件数据(no event),使其虽然可以完美匹配(拟合)训练数据,但是无法适应其他数据集。

    (4)对于神经网络模型:a)对样本数据可能存在分类决策面不唯一,随着学习的进行,BP算法使权值可能收敛过于复杂的决策面;b)权值学习迭代次数足够多(Overtraining),拟合了训练数据中的噪声和训练样例中没有代表性的特征[1]。

      解决过拟合的常用方法:

       (1)正则化

       (2)DropOut

       (3)BatchNormalization

       (4)提前终止训练

(1)正则化

       正则化(regularization),是指在线性代数理论中,不适定问题通常是由一组线性代数方程定义的,而且这组方程组通常来源于有着很大的条件数的不适定反问题。大条件数意味着舍入误差或其它误差会严重地影响问题的结果[2]。我们所说的正则化,就是在原来的损失函数的基础上,加上了一些正则化项或者称为模型复杂度惩罚项。

        我们为了解决过拟合的问题,常常采用L1正则化和L2正则化。 L1正

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值