机器学习笔记4:正则化(Regularization)

本文是Andrew Ng机器学习课程的学习笔记,主要探讨了正则化(Regularization)在解决过拟合问题上的作用。过拟合会导致模型在训练集上表现良好,但在新数据上预测准确性降低。通过减少特征参数或使用正则化可以缓解过拟合。正则化的损失函数添加了特征权重的平方和,梯度下降法在更新权重时会考虑正则化项,以避免模型复杂度过高。
摘要由CSDN通过智能技术生成

机器学习笔记4:正则化(Regularization)

Andrew Ng机器学习课程学习笔记4


过拟合与欠拟合
  线性拟合时,有两种拟合效果不好的情况,分别是过拟合与欠拟合。
  过拟合(overfitting),也叫高方差(variance)。主要是拟合曲线过于弯曲,虽然很多训练的数据集都在拟合曲线上,但是,对于新的测试集数据预测正确的概率不高。一般特征参数过多的时候可能会出现情况。比如用高阶函数去拟合低阶函数的数据。
  欠拟合(underfitting),也叫高偏差(bias)。主要是拟合曲线过于平直,不能适应训练集的变化。比如用低阶函数去拟合高阶函数的数据。
  对于过拟合,解决办法有:
  1.减少特征参数的数量。
  2.正则化
  正则化时,我们将保留所有的特征变量,但是会减小特征变量的数量级,使得特征变量的影响小一些。

loss function
  线性回归的正则化损失函数,就是在原线性拟合的损失函数上增加了一项,具体实现如下:
J ( θ ) = 1 2 m [ ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 + λ ∑ j = 1 n θ j 2 ] J(θ) = \dfrac{1}{2m}{[ \sum_{i=1}^{m}(h_θ(x^{(i)})-y^{(i)})^2+λ\sum_{j=1}^{n}θ_j^2 ]} J(θ)=2m1[i=1m(hθ(x(i))

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值