LinearRegression,Ridge,RidgeCV,Lasso线性回归模型简单使用

本文介绍了线性回归的基础,包括LinearRegression的平方损失函数,接着深入讨论了岭回归(Ridge)及其通过RidgeCV选择最佳正则化参数的方法。此外,还讲解了Lasso回归,特别强调了它在处理稀疏数据集上的优势和L1范数正则化。
摘要由CSDN通过智能技术生成

一、线性回归

LinearRegression:使用经验风险最小化=损失函数(平方损失)

这里写图片描述

>>> from sklearn import linear_model #导入模块
>>> reg = linear_model.LinearRegression() #导入模型
>>> reg.fit ([[0, 0], [1, 1], [2, 2]], [0, 1, 2]) #模型训练
LinearRegression(copy_X=True, fit_intercept=True, n_jobs=1, normalize=False) # copy_X:是否备份,fit_intercept:是否保存截距,n_jobs:?
normalize:是否标准化
>>> reg.coef_ # 训练后模型权重(特征个数无变化)
array([ 0.5,  0.5])
>>> reg.intercept_ # 训练后模型截距
1.1102230246251565e-16
>>
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值