集成学习笔记02 使用sklearn构建基本的机器学习模型

本文是集成学习笔记的第二部分,介绍如何使用sklearn构建线性回归模型,包括多项式回归、GAM(广义可加模型)、回归树和支持向量机回归SVR。通过实例代码展示了各个模型的实现过程,其中回归树在预测效果上表现最佳。
摘要由CSDN通过智能技术生成

集成学习笔记02 使用sklearn构建基本的机器学习模型

学习参考datawhale

1.线性回归模型

sklearn内有关于线性回归的函数LinearRegression(),简单的线性回归代码如下:

import pandas as pd
from sklearn import datasets
boston = datasets.load_boston() # 返回一个类似于字典的类
X = boston.data
y = boston.target
features = boston.feature_names
boston_data = pd.DataFrame(X,columns=features)
boston_data["Price"] = y
boston_data.head()

from sklearn import linear_model # 引入线性回归方法
lin_reg = linear_model.LinearRegression() # 创建线性回归的类
lin_reg.fit(X,y) # 输入特征X和因变量y进行训练
print("模型系数:",lin_reg.coef_) # 输出模型的系数
print("模型得分:",lin_reg.score(X,y)) # 输出模型的决定系数R^2

输出:

模型系数: [-1.08011358e-01  4.64204584e-02  2.05586264e-02  2.68673382e+00
 -1.77666112e+01  3.80986521e+00  6.92224640e-04 -1.47556685e+00
  3.06049479e-01 -1.23345939e-02 -9.52747232e-01  9.31168327e-03
 -5.24758378e-01]
模型得分: 0.7406426641094095

1.1多项式回归

诸如式(1)形态的多项式函数:
y i = w 0 + w 1 ∗ x i + w 2 ∗ x i 2 + . . . . + w d x i d + e y_i= w_0+w_1*x_i+w_2*x_i^2+....+w_dx_i^d+e yi=w0+w1xi+w2xi2

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值