【机器学习】常见的四种“回归”算法 - 概述及实战

在之前的帖子中,我们概述了常见的分类算法,现在让我们深入了解另一类监督学习 - 回归,其中输出变量是连续的和数字的。 有四种常见的回归模型。

  • 线性回归(Linear Regression)
  • Lasso 回归(Lasso Regression)
  • Ridge 回归 (Ridge Regression)
  • 多项式回归 (Polynomial Regression)

线性回归

线性回归寻找自变量和因变量之间的最佳线性关系,从而进行相应的预测。最简单的形式是y = b0 + b1x。当只有一个输入特征时,线性回归模型在二维空间中拟合直线,以最小化预测值和实际值之间的残差。衡量残差大小的常见成本函数(cost function)是残差平方和(RSS)。随着更多特性的引入,简单线性回归演变为多元线性回归 y = b0 + b1x1 + b2x2 + ... + bnxn

Lasso回归

Lasso回归是具有L1正则化 (L1 Regularization)的线性回归变体。简单来说,它只是在试图最小化的回归模型的残差中添加了一个额外的元素。之所以被称为L1正则化,是因为这个添加的正则化项与系数的绝对值成正比。与Ridge回归相比,它更擅长将一些特征的系数降至0,因此适用于特征消除。我们将在之后的“特征重要性”部分回顾这一点。

Ridge回归

Ridge回归是线性回归另一种具有L2正则化 (L2 Regularization)的变体。因此,不难推断正则化项是基于系数的平方值的次方。相比于Lasso回归,脊回归具有收敛更快,消耗时间更少的优点。

Lasso和Ridge的正则化强度由\lambda值确定。较大的\lambda值会使系数值缩小,使模型更平坦,

  • 32
    点赞
  • 40
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值