scikit-learn中几种regression算法

本文介绍了scikit-learn库中多种回归算法,包括Ordinary Least Squares、Ridge Regression、Lasso Regression、Multi-task Lasso、Elastic Net等,并探讨了它们的特点和应用场景。Lasso Regression通过L1正则化产生稀疏解,适用于处理高维数据和特征相关问题。Elastic Net结合L1和L2正则化,适用于相关特征的场景。文章还提及了LARS算法及其在LassoLars中的应用,以及Orthogonal Matching Pursuit (OMP)和Bayesian Regression。
摘要由CSDN通过智能技术生成

之前学machine learning只用到了最小平方回归法,或者是加上regularization(L1和L2),最近在学scikit-learn,发现里面提供了很多种回归算法。在学习时稍微总结了下。

1. Ordinary Least Squares

最小二乘法

这里写图片描述

2. Ridge Regression

其实就是加上了L2 regularization
这里写图片描述
scikit-learn不仅提供了Ridge()类,还提供了一个RidgeCV类做交叉验证用:

>>> from sklearn import linear_model
>>> reg = linear_model.RidgeCV(alphas=[0.1, 1.0, 10.0])
>>> reg.fit([[0, 0], [0, 0], [1, 1]], [0, .1, 1])       
RidgeCV(alphas=[0.1, 1.0, 10.0], cv=None, fit_intercept=True, scoring&
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值