监督学习——应用Lasso回归和ridge回归

本文介绍了监督学习中的Lasso回归和ridge回归,两种正则化方法用于降低过拟合。通过在波士顿房价预测示例中替换线性回归,探讨了这两种方法对模型泛化误差和拟合度的影响。
摘要由CSDN通过智能技术生成

监督学习——应用Lasso回归和ridge回归

降低过拟合的一个常见方法为正则化,它通过在成本函数中添加一个独立于特征值之外的额外限制来避免过拟合。

两个最常用的正则化项如下:

  • L1正则化:该方法在评分函数上添加一个与所有权重绝对值的和成比例的元素,基于权重向量的L1范数(也称曼哈顿距离)。由于曼哈顿的街道是网状布局,L1范数类似于测量一个纽约出租车从A 点向B点所需的距离。对应的算法叫作Lasso回归。
  • L2正则化:该方法在评分函数上添加一个与所有权重平方和成比例的元素,基于权重向量的L2范数(也称欧式距离)。L2范数包含了一个平方操作,所以它对那些权重向量中较大的离群值的惩罚力度比L1范数的惩罚力度更大。对应的算法叫作ridge回归。

以上一个例子——“使用线性回归预测波士顿房价”为基础,在“训练模型”步骤中,将定义一个线性回归模型此行代码进行更新替换,来实现Lasso回归和ridge回归。

linreg = linear_model.LinearRegression()  #定义一个线性回归模型

对于Lasso回归算法,使用下面的命令来进行替换:

lassoreg = linear_model.Lasso()  #Lasso回归

对于ridge回归算法,使用下面的命令来进行替换:

ridgereg = linear_model.Ridge()  #ridge回归

请大家尝试一下在波士顿数据集上用这两个算法代替传统线性回归算法来进行测试,观察其泛化误差以及预测的模型拟合度图会有如何变化。

(获取Lasso回归和ridge回归两个算法的完整代码,可关注“HappyWin数学建模”公众号)

参考书籍:《机器学习:使用OpenCV和Python进行智能图像处理》

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值