ML学习笔记-2021-08-27-岭回归

4.3 岭回归

学习目标

  1. 目标

说明岭回归的原理与线性回归的不同之处
说明正则化对参数的影响
说明L1和L2正则化的区别

  1. 应用:波士顿房价预测

4.3.1 带有L2正则化的线性回归岭回归

岭回归,其实也是一种线性回归。只不过在算法建立回归方程的时候,加上了正则化的限制,从而达到解决过拟合的效果。

4.3.2 API


在这里插入图片描述

4.3.3 观察正则化程度,对结果的影响。

在这里插入图片描述
从图上可知:
正则化力度越大,权重系数越小
正则化力度越小,权重系数越大

4.3.4 波士顿放假预测

def ridge():
    """
    梯度下降的优化方法
    迭代求解
    针对大数据
    :return:
    """
    x_train, x_test, y_train, y_test = load_data()
    transfer = StandardScaler()
    x_train = transfer.fit_transform(x_train)
    x_test = transfer.transform(x_test)

    # estimator = SGDRegressor(penalty='l2', loss="squared_loss")  # 这样设置就相当于岭回归, 但是建议用Ridge方法
    estimator = Ridge(max_iter=10000,alpha=0.01)
    estimator.fit(x_train, y_train)

    print("梯度下降_权重系数为: ", estimator.coef_)
    print("梯度下降_偏置为:", estimator.intercept_)

    y_predict = estimator.predict(x_test)
    error = mean_squared_error(y_test, y_predict)
    print("梯度下降_房价预测:", y_predict)
    print("梯度下降_均分误差:", error)

    return None
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值