Lasso回归和Ridge回归都是线性回归模型的正则化形式。正则化是一种技术,通过在模型的目标函数中添加一个罚项,可以有效地控制模型的复杂性,从而避免过拟合。
Ex. 在房价预测模型中,使用普通线性回归模型可能发现某些值权重非常大,使得这个模型在训练集表现得非常好,但是在测试集中却不尽人意(过拟合)。或者假设这个房价预测模型有超过100个特征,但你相信并非所有特征都与房价有显著的线性关系。这时候我们就可以用 Lasso & Ridge Regression来解决这个问题。
Ridge回归:Ridge回归会通过L2正则化惩罚大的权重。这意味模型将会分散权重到不同的特征上去而不是给予某几个特征非常大的权重
Lasso回归:Lasso回归通过L1正则化将默写特征的权重完全清零。这意味着在训练过后,有100个特征的数据集中仅有50个特征被视为“有用”,其余50个特征的权重会被降为零,这使得模型更加简洁。
总而言之,Ridge帮助减轻过拟合,Lasso帮助进行特征选择。
我们可以用cost function来更明了的看出这两个函数是如何工作的