L1 L2 正则化

使用L2正则化的线性模型---- 岭回归

岭回归也是回归分析中常用的线性模型,它实际上是一种改良的最小二乘法。岭回归是一种能够避免过拟合的线性模型。模型会保留所有的特征变量,但是会减小特征变量的系数值,让特征变量对预测结果的影响变小。

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.linear_model import Ridge
data_url = "http://lib.stat.cmu.edu/datasets/boston"
raw_df = pd.read_csv(data_url, sep="\s+", skiprows=22, header=None)
data = np.hstack([raw_df.values[::2, :], raw_df.values[1::2, :2]])
target = raw_df.values[1::2, 2]
X_train, X_test, y_train, y_test = train_test_split(data, target)
print(X_train.shape)
(379, 13)
ridge = Ridge().fit(X_train, y_train)
print("岭回归训练数据集得分:{:.2f}".format(ridge.score(X_train, y_train)))
print("岭回归测试数据集得分:{:.2f}".format(ridge.score(X_test, y_test)))
岭回归训练数据集得分:0.74
岭回归测试数据集得分:0.70

在岭回归中,通过改变alpha参数来控制减小特征变量

ridge10 = Ridge(alpha=10).fit(X_train, y_train)
print("岭回归训练数据集得分:{:.2f}".format(ridge10.score(X_train, y_train)))
print("岭回归测试数据集得分:{:.2f}".format(ridge10.score(X_test, y_test)))
岭回归训练数据集得分:0.74
岭回归测试数据集得分:0.69
ridge01 = Ridge(alpha=0.1).fit(X_train, y_train)
print("岭回归训练数据集得分:{:.2f}".format(ridge01.score(X_train, y_train)))
print("岭回归测试数据集得分:{:.2f}".format(ridge01.score(X_test, y_test)))
岭回归训练数据集得分:0.75
岭回归测试数据集得分:0.70
import matplotlib.pyplot as plt
plt.plot(ridge.coef_, 's', label = 'Ridge alpha = 1')
plt.plot(ridge10.coef_, '^', label = 'Ridge alpha = 10')
plt.plot(ridge01.coef_, 'v', label = 'Ridge alpha = 0.1')
plt.xlabel("coefficient index")
plt.ylabel("coefficient magnitude")
plt.grid()
# plt.hlines(0,0, np.linspace(0,10,10))
plt.legend()
plt.show()

使用L1正则化的线性模型---- 套索回归

套索回归 lasso, 与L2正则化不同,L1正则化会导致在使用套索回归的时候,有一部分特征的系数会正好等于0。当特征特别多的时候,L1正则化会忽视一些特征。有助于让模型更容易理解,突出模型中的重要特征。

from sklearn.linear_model import Lasso
lasso = Lasso().fit(X_train, y_train)
print("套索回归训练数据集得分:{:.2f}".format(lasso.score(X_train, y_train)))
print("套索回归测试数据集得分:{:.2f}".format(lasso.score(X_test, y_test)))
print("套索回归使用的特征数:{}".format(np.sum(lasso.coef_ !=0 )))
套索回归训练数据集得分:0.70
套索回归测试数据集得分:0.65
套索回归使用的特征数:10
lasso01 = Lasso(alpha=0.1, max_iter= 100000 ).fit(X_train, y_train)
print("套索回归训练数据集得分:{:.2f}".format(lasso01.score(X_train, y_train)))
print("套索回归测试数据集得分:{:.2f}".format(lasso01.score(X_test, y_test)))
print("套索回归使用的特征数:{}".format(np.sum(lasso01.coef_ !=0 )))
套索回归训练数据集得分:0.74
套索回归测试数据集得分:0.68
套索回归使用的特征数:12
lasso10 = Lasso(alpha=10, max_iter= 100000 ).fit(X_train, y_train)
print("套索回归训练数据集得分:{:.2f}".format(lasso10.score(X_train, y_train)))
print("套索回归测试数据集得分:{:.2f}".format(lasso10.score(X_test, y_test)))
print("套索回归使用的特征数:{}".format(np.sum(lasso10.coef_ !=0 )))
套索回归训练数据集得分:0.51
套索回归测试数据集得分:0.57
套索回归使用的特征数:4
lasso0001 = Lasso(alpha=0.0001, max_iter= 100000 ).fit(X_train, y_train)
print("套索回归训练数据集得分:{:.2f}".format(lasso0001.score(X_train, y_train)))
print("套索回归测试数据集得分:{:.2f}".format(lasso0001.score(X_test, y_test)))
print("套索回归使用的特征数:{}".format(np.sum(lasso0001.coef_ !=0 )))
套索回归训练数据集得分:0.75
套索回归测试数据集得分:0.70
套索回归使用的特征数:13

plt.plot(lasso.coef_, 's', label = 'Ridge alpha = 1')
plt.plot(lasso10.coef_, '^', label = 'Ridge alpha = 10')
plt.plot(lasso01.coef_, 'v', label = 'Ridge alpha = 0.1')
plt.plot(lasso0001.coef_, 'o', label = 'Ridge alpha = 0.0001')
plt.xlabel("coefficient index")
plt.ylabel("coefficient magnitude")
plt.grid()
plt.legend()
plt.show()

总结

在实际应用中,决定使用L1正则化模型还是L2正则化模型的主要原则:

1:如果你的数据集有很多特征,而这些特征中并不是每一个都对结果又重要的影响,那么酒使用L1正则化模型;

2:如果数据集中的特征本来就不多,而每一个特征都有重要的作用,那就使用L2正则化模型。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
资源包主要包含以下内容: ASP项目源码:每个资源包中都包含完整的ASP项目源码,这些源码采用了经典的ASP技术开发,结构清晰、注释详细,帮助用户轻松理解整个项目的逻辑和实现方式。通过这些源码,用户可以学习到ASP的基本语法、服务器端脚本编写方法、数据库操作、用户权限管理等关键技术。 数据库设计文件:为了方便用户更好地理解系统的后台逻辑,每个项目中都附带了完整的数据库设计文件。这些文件通常包括数据库结构图、数据表设计文档,以及示例数据SQL脚本。用户可以通过这些文件快速搭建项目所需的数据库环境,并了解各个数据表之间的关系和作用。 详细的开发文档:每个资源包都附有详细的开发文档,文档内容包括项目背景介绍、功能模块说明、系统流程图、用户界面设计以及关键代码解析等。这些文档为用户提供了深入的学习材料,使得即便是从零开始的开发者也能逐步掌握项目开发的全过程。 项目演示与使用指南:为帮助用户更好地理解和使用这些ASP项目,每个资源包中都包含项目的演示文件和使用指南。演示文件通常以视频或图文形式展示项目的主要功能和操作流程,使用指南则详细说明了如何配置开发环境、部署项目以及常见问题的解决方法。 毕业设计参考:对于正在准备毕业设计的学生来说,这些资源包是绝佳的参考材料。每个项目不仅功能完善、结构清晰,还符合常见的毕业设计要求和标准。通过这些项目,学生可以学习到如何从零开始构建一个完整的Web系统,并积累丰富的项目经验。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值