6.sklearn-线性回归、岭回归、欠拟合和过拟合

环境配置(必看)

Anaconda-创建虚拟环境的手把手教程相关环境配置看此篇文章,本专栏深度学习相关的版本和配置,均按照此篇文章进行安装。

头文件引用

from sklearn.datasets import load_boston
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.linear_model import LinearRegression, SGDRegressor, Ridge
from sklearn.metrics import mean_squared_error

1.线性回归

1.1 正规方程

正规方程函数介绍:

在这里插入图片描述

代码
def linear1():
    """
    正规方程的优化方法对波士顿房价进行预测
    :return:
    """
    # 1.获取数据集
    boston = load_boston()
    # 2.划分数据集
    x_train, x_test, y_train, y_test = train_test_split(boston.data, boston.target, random_state=22)
    # 3.标准化
    transfer = StandardScaler()
    x_train = transfer.fit_transform(x_train)
    x_test = transfer.transform(x_test)
    # 4.预估器
    estimator = LinearRegression()
    estimator.fit(x_train, y_train)
    # 5.得出模型
    print(f"正规方程权重系数为: {estimator.coef_}")
    print(f"正规方程偏置为: {estimator.intercept_}")
    # 6.模型评估
    y_predict = estimator.predict(x_test)
    # print(f"预测房价: {y_predict}")
    error = mean_squared_error(y_test, y_predict)
    print(f"正规方程-均方误差: {error} \n")
运行结果

在这里插入图片描述

1.2 梯度下降

梯度下降函数介绍:

在这里插入图片描述

代码
def linear2():
    """
    梯度下降对波士顿房价进行预测
    :return:
    """
    # 1.获取数据集
    boston = load_boston()
    print(f"特征数量: {boston.data.shape}")
    # 2.划分数据集
    x_train, x_test, y_train, y_test = train_test_split(boston.data, boston.target, random_state=22)
    # 3.标准化
    transfer = StandardScaler()
    x_train = transfer.fit_transform(x_train)
    x_test = transfer.transform(x_test)
    # 4.预估器 penalty="L2"的话,就相当于Ridge(岭回归)
    estimator = SGDRegressor(learning_rate="constant", eta0=0.01, max_iter=10000, penalty="L1")
    estimator.fit(x_train, y_train)
    # 5.得出模型
    print(f"梯度下降权重系数为: {estimator.coef_}")
    print(f"梯度下降偏置为: {estimator.intercept_}")
    # 6.模型评估
    y_predict = estimator.predict(x_test)
    # print(f"预测房价: {y_predict}")
    error = mean_squared_error(y_test, y_predict)
    print(f"梯度下降-均方误差: {error} \n")
运行结果

在这里插入图片描述

1.3 算法总结

1.数据量小于10万条时,不建议使用梯度下降;
2.正规方程(LinearRegression())不能解决拟合问题,使用的比较少;
3.SGD – 随机梯度下降(Stochastic gradient descent)是一个优化方法。它在一次迭代时只考虑一个训练样本。
优点:高效、容易实现
缺点:SGD需要许多超参数,比如正则项参数、迭代数;
SGD对于特征标准化试敏感的。

2.岭回归

介绍

在这里插入图片描述

API

在这里插入图片描述

代码
def linear3():
    """
    岭回归对波士顿房价进行预测
    :return:
    """
    # 1.获取数据集
    boston = load_boston()
    print(f"特征数量: {boston.data.shape}")
    # 2.划分数据集
    x_train, x_test, y_train, y_test = train_test_split(boston.data, boston.target, random_state=22)
    # 3.标准化
    transfer = StandardScaler()
    x_train = transfer.fit_transform(x_train)
    x_test = transfer.transform(x_test)
    # 4.预估器     alpha:正则化力度  max_iter:迭代次数
    estimator = Ridge(alpha=0.5, max_iter=10000)
    estimator.fit(x_train, y_train)

    # 保存模型
    # joblib.dump(estimator, "my_ridge.pkl")

    # 加载模型
    # estimator = joblib.load("my_ridge.pkl")

    # 5.得出模型
    print(f"岭回归权重系数为: {estimator.coef_}")
    print(f"岭回归权重为: {estimator.intercept_}")
    # 6.模型评估
    y_predict = estimator.predict(x_test)
    # print(f"预测房价: {y_predict}")
    error = mean_squared_error(y_test, y_predict)
    print(f"岭回归-均方误差: {error} \n")
运行结果

在这里插入图片描述

3.欠拟合和过拟合

介绍

	过拟合:一个假设在训练数据上能够获得比其他假设更好的拟合, 但是在测试数据集上却不能很好地拟合数据,此时认为这个假设出现了
过拟合的现象。(模型过于复杂)
	欠拟合:一个假设在训练数据上不能获得更好的拟合,并且在测试数据集上也不能很好地拟合数据,此时认为这个假设出现了欠拟合的现象。
(模型过于简单)

图例

在这里插入图片描述

原因以及解决办法

1.欠拟合原因以及解决办法
原因:学习到数据的特征过少
解决办法:
1)添加其他特征项,有时候我们模型出现欠拟合的时候是因为特征项不够导致的,可以添加其他特征项来很好地解决。例如,“组合”、“泛化”、
“相关性”三类特征是特征添加的重要手段,无论在什么场景,都可以照葫芦画瓢,总会得到意想不到的效果。除上面的特征之外,“上下文特征”、
“平台特征”等等,都可以作为特征添加的首选项。
2)添加多项式特征,这个在机器学习算法里面用的很普遍,例如将线性模型通过添加二次项或者三次项使模型泛化能力更强。

2.过拟合原因以及解决办法
原因:原始特征过多,存在一些嘈杂特征, 模型过于复杂是因为模型尝试去兼顾各个测试数据点
解决办法:
1)重新清洗数据,导致过拟合的一个原因也有可能是数据不纯导致的,如果出现了过拟合就需要我们重新清洗数据。
2)增大数据的训练量,还有一个原因就是我们用于训练的数据量太小导致的,训练数据占总数据的比例过小。
3)正则化
4)减少特征维度,防止维灾难

正则化

在解决回归过拟合中,我们选择正则化。但是对于其他机器学习算法如分类算法来说也会出现这样的问题,除了一些算法本身作用之外(决策树、
神经网络),我们更多的也是去自己做特征选择,包括之前说的删除、合并一些特征。

在这里插入图片描述

解决的办法

在这里插入图片描述

正则化类别

1. L2正则化
	作用:可以使得其中一些W的都很小,都接近于0,削弱某个特征的影响
	优点:越小的参数说明模型越简单,越简单的模型则越不容易产生过拟合现象
	Ridge回归
2. L1正则化
	作用:可以使得其中一些W的值直接为0,删除这个特征的影响
	LASSO回归

并且
正则化力度越大,权重系数会越小;
正则化力度越小,权重系数会越大;

本章学习资源

黑马程序员3天快速入门python机器学习我是跟着视频进行的学习,欢迎大家一起来学习!

  • 17
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值