【Python机器学习】线性模型——lasso

除了岭回归,还有一种正则化的线性回归是lasso,与岭回归相同,使用lasso也是约束系数使其接近于0,但方法不同,叫做L1正则化。L1正则化的结果是使用lasso时某些系数刚好为0。说明某些特征被模型完全忽略。

同样以波士顿房价数据集为例:

import mglearn.datasets
from sklearn.model_selection import train_test_split
from sklearn.linear_model import Ridge,LinearRegression,Lasso
from sklearn.neighbors import KNeighborsRegressor
import matplotlib.pyplot as plt
import numpy as np

plt.rcParams['font.sans-serif']=['SimHei']

X,y=mglearn.datasets.load_extended_boston()
X_train,X_test,y_train,y_test=train_test_split(
    X,y,random_state=0
)

lasso=Lasso().fit(X_train,y_train)
print('训练集score:{:.2f}'.format(lasso.score(X_train,y_train)))
print('测试集score:{:.2f}'.format(lasso.score(X_test,y_test)))
print('用到的特征:{}'.format(np.sum(lasso.coef_!=0)))

从结果可以看出,Lasso在训练集和测试集上表现都很差,说明存在欠拟合,因为在数据集的105个特征中只用到了4个。

与岭回归类似,Lasso也存在一个正则化参数alpha,可以控制系数趋向于0的强度,为了减低欠拟合成都,可以减小alpha,同时,增加max_iter(运行迭代的最大次数)


lasso_001=Lasso(alpha=0.01,max_iter=100000).fit(X_train,y_train)
print('训练集score:{:.2f}'.format(lasso_001.score(X_train,y_train)))
print('测试集score:{:.2f}'.format(lasso_001.score(X_test,y_test)))
print('用到的特征:{}'.format(np.sum(lasso_001.coef_!=0)))

lasso_00001=Lasso(alpha=0.0001,max_iter=100000).fit(X_train,y_train)
print('训练集score:{:.2f}'.format(lasso_00001.score(X_train,y_train)))
print('测试集score:{:.2f}'.format(lasso_00001.score(X_test,y_test)))
print('用到的特征:{}'.format(np.sum(lasso_00001.coef_!=0)

 

alpha变小可以拟合一个更复杂的模型,在训练集和测试集上 的表现也更好,但是alpha不能设置的太小,否则就会消除正则化的效果,并出现过拟合,得到与线性回归类似的模型。

对不同alpha系数的结果进行可视化对比:

import mglearn.datasets
from sklearn.model_selection import train_test_split
from sklearn.linear_model import Ridge,LinearRegression,Lasso
from sklearn.neighbors import KNeighborsRegressor
import matplotlib.pyplot as plt
import numpy as np

plt.rcParams['font.sans-serif']=['SimHei']

X,y=mglearn.datasets.load_extended_boston()
X_train,X_test,y_train,y_test=train_test_split(
    X,y,random_state=0
)
lasso=Lasso().fit(X_train,y_train)
lasso_001=Lasso(alpha=0.01,max_iter=100000).fit(X_train,y_train)
lasso_00001=Lasso(alpha=0.0001,max_iter=100000).fit(X_train,y_train)
ridge_01=Ridge(alpha=0.1).fit(X_train,y_train)

plt.plot(lasso.coef_,'s',label='lasso alpha=1')
plt.plot(lasso_001.coef_,'^',label='lasso alpha=0.01')
plt.plot(lasso_00001.coef_,'v',label='lasso alpha=0.0001')

plt.plot(ridge_01.coef_,'o',label='岭 alpha=0.1')
plt.xlabel('index')
plt.ylabel('系数大小')
plt.ylim(-25,25)
plt.legend(ncol=2,loc=(0,1.05))
plt.show()

在alpha=1时,大部分系数大小都是0,而且其他系数也很小,alpha=0.01时,大部分特征等于0,alpha=0.0001时,大部分特征都不等于0且很大,就是一个正则化很弱的模型了 。

alpha=0.1的岭回归模型的预测功能与alpha=0.01的Lasso模型类似,但岭回归的所有系数都不为0。

在实践中,一般首选岭回归,但如果特征很多,且只有几个事重要的,那选择Lasso可能更好,且更容易解释。

  • 7
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
机器学习中,线性回归有多种模型可以使用。其中包括传统的线性回归模型Lasso模型。 传统的线性回归模型是一种非常经典的方法,它通过拟合一个线性函数来预测因变量和自变量之间的关系。这个模型的数学原理可以通过最小二乘法来推导和求解。最小二乘法的目标是最小化预测值与实际观测值之间的残差平方和,从而得到最优的模型参数。\[1\] Lasso模型是一种用于处理多重共线性问题的算法。它通过对系数进行L1正则化来实现特征选择。L1正则化是指将系数的绝对值乘以一个正则化系数,使得一些特征的系数变为零,从而自动丢弃这些特征。Lasso模型在sklearn库中有相应的实现。\[2\] 线性回归回归分析中最常用的方法之一,因为它比非线性模型更容易拟合,并且估计的统计特性也更容易确定。线性回归模型可以使用最小二乘法来求解,通过最小化残差平方和来得到最优的模型参数。\[3\] 综上所述,机器学习线性回归有多种模型可供选择,包括传统的线性回归模型Lasso模型。这些模型可以通过最小二乘法和L1正则化来求解。 #### 引用[.reference_title] - *1* [机器学习——线性回归模型python代码实现](https://blog.csdn.net/qq_43045620/article/details/123079305)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [【机器学习线性回归】多元线性回归模型的搭建+Lasso回归的特征提取](https://blog.csdn.net/qq_43018832/article/details/128103389)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [机器学习常用模型-线性回归模型详解(简单易懂)](https://blog.csdn.net/weixin_43308610/article/details/123346498)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值