ML笔记(3)线性回归的正则化

本文探讨了正则化在机器学习中的重要性,特别是针对线性回归。介绍了正则化概念,旨在减少过拟合并提高模型的泛化能力。讨论了L1和L2正则化,L1常用于特征选择,L2常用于防止过拟合。通过梯度下降和正规方程法展示了线性回归的正则化过程,并延伸到逻辑回归的正则化应用。
摘要由CSDN通过智能技术生成

先举一个多项式回归的例子,当我们使用多项式回归的时候,如果没有对多项式的系数进行限制,拟合的模型过拟合的概率极高,所以我们需要通过一些方法限制多项式系数的变化。以下的正则化改进从损失函数,减少过拟合概率。

1 正则化概念

简单来说,正则化是一种为了减小测试误差的行为(有时候会增加训练误差)。我们在构造机器学习模型时,最终目的是让模型在面对新数据的时候,可以有很好的表现(即增加模型的泛化能力)。当你用比较复杂的模型比如神经网络,去拟合数据时,很容易出现过拟合现象(训练集表现很好,测试集表现较差),这会导致模型的泛化能力下降,这时候,我们就需要使用正则化,降低模型的复杂度。

2 正则化的类型

这块我只是简单的从其他资料进行了解,以后有待完善。

  • L1正则化通过让原目标函数加上了所有特征系数绝对值的和来实现正则化
  • L2正则化通过让原目标函数加上了所有特征系数的平方和来实现正则化

L1常用于特征选择如上学期的lasso回归,在存在多重共线性的特征里选择;L2常用于防止模型过拟合,其中岭回归是一个例子

3 线性回归的正则化
正则化的思想就是减少高次项 θ \theta θ的值,使得曲线平滑,因此,在线性回归算法中的代价函数可以如下表示:
J ( θ ) = 1 2 m [ ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 + λ ∑ j = 1 n θ j 2 ] J(\theta)=\frac{1}{2 m}\left[\sum_{i=1}^{m}\left(h_{\theta}\left(x^{(i)}\right)-y^{(i)}\right)^{2}+\lambda \sum_{j=1}^{n} \theta_{j}^{2}\right] J(θ)=2m1[i=1m(hθ(x(i))y(i))2+λj=1nθj2]
以上公式中, λ \lambda λ表示正则化参数,在算法实际运行过程中,要选择合适的 λ \lambda λ值,不能使其过大,否则可能会导致过拟合不能被消除,或者梯度下降算法不收敛。

  • 梯度下降算法中的正则化

Repeat
{
θ 0 : = θ 0 − α 1 m ∑ i =

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值