神经网络的过拟合问题以及L1、L2正则化

过拟合是指模型过于复杂,过度学习训练数据中的噪声,导致对未知数据预测能力下降。正则化通过在损失函数中加入模型复杂度惩罚来防止过拟合。L1正则化产生稀疏参数,有助于特征选择,而L2正则化保持参数非零。在TensorFlow中,可以使用l1_regularizer、l2_regularizer和l1_l2_regularizer进行正则化操作。
摘要由CSDN通过智能技术生成

所谓过拟合,指的是当一个模型过为复杂之后,它可以很好的“记忆”每一个训练数据中随机噪音的部分而忘记了要去“学习”训练数据中通用的趋势。

举一个极端的例子,如果一个模型的参数比训练数据的总说还多,那么只要训练数据不冲突,这个模型完全可以记住所有训练数据的结果从而使得损失函数为0。然而,过度拟合训练数据中的随机噪音虽然可以得到非常小的损失函数,但是对于未知数据可能无法做出可靠的判断。
下图显示了模型训练的三种不同情况。分别展示了模型欠拟合、just right、以及模型过拟合。
这里写图片描述

为了避免过拟合问题,一个常用的方法就是正则化。简单而言,正则化的思想就是在损失函数中假如刻画模型复杂程度的指标。通俗点说,假设损失函数为J(θ),那么在优化时不仅仅优化J(θ),而是优化J(θ)+λR(w),其中R(w)刻画的是模型的复杂程度,而λ表示模型复杂损失在总损失中的比例。这里θ表示的是一个神经网络中所有的参数,包括权重w和偏置项b。一般而言模型的复杂度只由权重w决定。

神经网络中常用的正则化方法和一般机器学习的正则化类似,有两种,一种是L1正则化,计算公式为
这里写图片描述
另一种是L2正则化,计算公式是:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值