【转】使用sklearn做各种回归

【转】https://blog.csdn.net/yeoman92/article/details/75051848

使用sklearn做各种回归 
基本回归:线性、决策树、SVM、KNN 
集成方法:随机森林、Adaboost、GradientBoosting、Bagging、ExtraTrees

1. 数据准备

为了实验用,我自己写了一个二元函数,y=0.5*np.sin(x1)+ 0.5*np.cos(x2)+0.1*x1+3。其中x1的取值范围是0~50,x2的取值范围是-10~10,x1和x2的训练集一共有500个,测试集有100个。其中,在训练集的上加了一个-0.5~0.5的噪声。生成函数的代码如下:

def f(x1, x2):
    y = 0.5 * np.sin(x1) + 0.5 * np.cos(x2)  + 0.1 * x1 + 3 
    return y

def load_data():
    x1_train = np.linspace(0,50,500)
    x2_train = np.linspace(-10,10,500)
    data_train = np.array([[x1,x2,f(x1,x2) + (np.random.random(1)-0.5)] for x1,x2 in zip(x1_train, x2_train)])
    x1_test = np.linspace(0,50,100)+ 0.5 * np.random.random(100)
    x2_test = np.linspace(-10,10,100) + 0.02 * np.random.random(100)
    data_test = np.array([[x1,x2,f(x1,x2)] for x1,x2 in zip(x1_test, x2_test)])
    return data_train, data_test
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12

其中训练集(y上加有-0.5~0.5的随机噪声)和测试集(没有噪声)的图像如下:

这里写图片描述

2. scikit-learn的简单使用

scikit-learn非常简单,只需实例化一个算法对象,然后调用fit()函数就可以了,fit之后,就可以使用predict()函数来预测了,然后可以使用score()函数来评估预测值和真实值的差异,函数返回一个得分。

完整程式化代码为:

import numpy as np
import matplotlib.pyplot as plt

###########1.数据生成部分##########
def f(x1, x2):
    y = 0.5 * np.sin(x1) + 0.5 * np.cos(x2) + 3 + 0.1 * x1 
    return y

def load_data():
    x1_train = np.linspace(0,50,500)
    x2_train = np.linspace(-10,10,500)
    data_train = np.array([[x1,x2,f(x1,x2) + (np.random.random(1)-0.5)] for x1,x2 in zip(x1_train, x2_train)])
    x1_test = np.linspace(0,50,100)+ 0.5 * np.random.random(100)
    x2_test = np.linspace(-10,10,100) + 0.02 * np.random.random(100)
    data_test = np.array([[x1,x2,f(x1,x2)] for x1,x2 in zip(x1_test, x2_test)])
    return data_train, data_test

train, test = load_data()
x_train, y_train = train[:,:2], train[:,2] #数据前两列是x1,x2 第三列是y,这里的y有随机噪声
x_test ,y_test = test[:,:2], test[:,2] # 同上,不过这里的y没有噪声


###########2.回归部分##########
def try_different_method(model):
    model.fit(x_train,y_train)
    score = model.score(x_test, y_test)
    result = model.predict(x_test)
    plt.figure()
    plt.plot(np.arange(len(result)), y_test,'go-',label='true value')
    plt.plot(np.arange(len(result)),result,'ro-',label='predict value')
    plt.title('score: %f'%score)
    plt.legend()
    plt.show()


###########3.具体方法选择##########
####3.1决策树回归####
from sklearn import tree
model_DecisionTreeRegressor = tree.DecisionTreeRegressor()
####3.2线性回归####
from sklearn import linear_model
model_LinearRegression = linear_model.LinearRegression()
####3.3SVM回归####
from sklearn import svm
model_SVR = svm.SVR()
####3.4KNN回归####
from sklearn import neighbors
model_KNeighborsRegressor = neighbors.KNeighborsRegressor()
####3.5随机森林回归####
from sklearn import ensemble
model_RandomForestRegressor = ensemble.RandomForestRegressor(n_estimators=20)#这里使用20个决策树
####3.6Adaboost回归####
from sklearn import ensemble
model_AdaBoostRegressor = ensemble.AdaBoostRegressor(n_estimators=50)#这里使用50个决策树
####3.7GBRT回归####
from sklearn import ensemble
model_GradientBoostingRegressor = ensemble.GradientBoostingRegressor(n_estimators=100)#这里使用100个决策树
####3.8Bagging回归####
from sklearn.ensemble import BaggingRegressor
model_BaggingRegressor = BaggingRegressor()
####3.9ExtraTree极端随机树回归####
from sklearn.tree import ExtraTreeRegressor
model_ExtraTreeRegressor = ExtraTreeRegressor()


###########4.具体方法调用部分##########
try_different_method(model_DecisionTreeRegressor)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67

3.结果展示

决策树回归结果: 
这里写图片描述

线性回归结果: 
这里写图片描述

SVM回归结果: 
这里写图片描述

KNN回归结果: 
这里写图片描述

随机森林回归结果: 
这里写图片描述

Adaboost回归结果: 
这里写图片描述

GBRT回归结果: 
这里写图片描述

Bagging回归结果: 
这里写图片描述

极端随机树回归结果: 
这里写图片描述

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/Yeoman92/article/details/75051848

使用sklearn求解线性回归问题时,可以通过使用sklearn中的LinearRegression模型来实现。LinearRegression是sklearn中用于实现线性回归的类。它基于最小二乘法估计线性回归模型的参数。要使用LinearRegression模型,首先需要导入相应的库和数据集,然后创建一个LinearRegression对象,将数据集拟合到该模型中,并使用模型进行预测。 下面是使用sklearn求解线性回归问题的一般步骤: 1. 导入所需的库和数据集:首先,导入sklearn库中的LinearRegression模型,以及其他可能需要使用的库和数据集。 2. 准备数据集:将数据集划分为特征矩阵X和目标变量y。 3. 创建LinearRegression对象:使用LinearRegression()函数创建一个LinearRegression对象。 4. 拟合数据集:使用LinearRegression对象的fit()方法将特征矩阵X和目标变量y拟合到模型中,从而得到线性回归模型。 5. 预测:使用LinearRegression对象的predict()方法对新的特征矩阵进行预测,得到预测结果。 下面是一个示例代码: ```python # 导入所需的库和数据集 import numpy as np from sklearn.linear_model import LinearRegression # 准备数据集 X = np.array([[1, 1], [1, 2], [2, 2], [2, 3]]) y = np.dot(X, np.array([1, 2])) + 3 # 创建LinearRegression对象 model = LinearRegression() # 拟合数据集 model.fit(X, y) # 预测 new_X = np.array([[3, 5], [4, 6]]) predictions = model.predict(new_X) # 打印预测结果 print(predictions) ``` 在上述示例代码中,我们首先导入了numpy和sklearn的LinearRegression模型。然后,我们准备了一个包含两个特征的数据集X和相应的目标变量y。接下来,我们创建了一个LinearRegression对象,并使用fit()方法将数据集拟合到模型中。最后,我们使用predict()方法对新的特征矩阵进行预测,并打印了预测结果。 请注意,上述示例代码中的数据集X和目标变量y只是为了演示目的而创建的简单示例。在实际应用中,您需要根据具体情况准备和处理您的数据集。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值