Bagging&Boosting算法实战回归模型

你怎么从全世界找到喜欢你的人?
select * from world where someone like ‘%you%’;


no results!

在这里插入图片描述

项目工程和数据集我上传了集成学习:随机森林、GBDT、XGBoost实战代码合集

import numpy as np
import matplotlib as mpl
import matplotlib.pyplot as plt
import pandas as pd
import warnings
import sklearn
from sklearn.linear_model import LinearRegression, LassoCV, Ridge, ElasticNetCV
from sklearn.preprocessing import PolynomialFeatures
from sklearn.pipeline import Pipeline
from sklearn.linear_model.coordinate_descent import ConvergenceWarning
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.model_selection import GridSearchCV
from sklearn import metrics
from sklearn.ensemble import BaggingRegressor,AdaBoostRegressor,GradientBoostingRegressor
## 设置字符集,防止中文乱码
mpl.rcParams['font.sans-serif']=[u'simHei']
mpl.rcParams['axes.unicode_minus']=False
## 拦截异常
warnings.filterwarnings(action = 'ignore', category=ConvergenceWarning)
def notEmpty(s):
    return s != ''
## 加载数据
names = ['CRIM','ZN', 'INDUS','CHAS','NOX','RM','AGE','DIS','RAD','TAX','PTRATIO','B','LSTAT']
path = "datas/boston_housing.data"
## 由于数据文件格式不统一,所以读取的时候,先按照一行一个字段属性读取数据,然后再安装每行数据进行处理
fd = pd.read_csv(path,header=None)
# print (fd.shape)
data = np.empty((len(fd), 14))
for i, d in enumerate(fd.values):#enumerate生成一列索 引i,d为其元素

    d = map(float, filter(notEmpty, d[0].split(' ')))#filter一个函数,一个list
    
    #根据函数结果是否为真,来过滤list中的项。
    data[i] = list(d)
    
## 分割数据
x, y = np.split(data, (13,), axis=1)
print (x[0:5])
y = y.ravel() # 转换格式 拉直操作
print (y[0:5])
ly=len(y)
print(y.shape)
print ("样本数据量:%d, 特征个数:%d" % x.shape)
print ("target样本数据量:%d" % y.shape[0])

[[6.3200e-03 1.8000e+01 2.3100e+00 0.0000e+00 5.3800e-01 6.5750e+00
6.5200e+01 4.0900e+00 1.0000e+00 2.9600e+02 1.5300e+01 3.9690e+02
4.9800e+00]
[2.7310e-02 0.0000e+00 7.0700e+00 0.0000e+00 4.6900e-01 6.4210e+00
7.8900e+01 4.9671e+00 2.0000e+00 2.4200e+02 1.7800e+01 3.9690e+02
9.1400e+00]
[2.7290e-02 0.0000e+00 7.0700e+00 0.0000e+00 4.6900e-01 7.1850e+00
6.1100e+01 4.9671e+00 2.0000e+00 2.4200e+02 1.7800e+01 3.9283e+02
4.0300e+00]
[3.2370e-02 0.0000e+00 2.1800e+00 0.0000e+00 4.5800e-01 6.9980e+00
4.5800e+01 6.0622e+00 3.0000e+00 2.2200e+02 1.8700e+01 3.9463e+02
2.9400e+00]
[6.9050e-02 0.0000e+00 2.1800e+00 0.0000e+00 4.5800e-01 7.1470e+00
5.4200e+01 6.0622e+00 3.0000e+00 2.2200e+02 1.8700e+01 3.9690e+02
5.3300e+00]]
[24. 21.6 34.7 33.4 36.2]
(506,)
样本数据量:506, 特征个数:13
target样本数据量:506

x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.2, random_state=28)
## 线性回归模型
lr = Ridge(alpha=0.1)
lr.fit(x_train, y_train)
print("训练集上R^2:%.5f" % lr.score(x_train, y_train))
print("测试集上R^2:%.5f" % lr.score(x_test, y_test))

训练集上R^2:0.77123
测试集上R^2:0.56367

# 使用Bagging思想集成线性回归
bg = BaggingRegressor(Ridge(alpha=0.1), n_estimators=50, max_samples=0.7, max_features=0.8, random_state=28)
bg.fit(x_train, y_train)
print("训练集上R^2:%.5f" % bg.score(x_train, y_train))
print("测试集上R^2:%.5f" % bg.score(x_test, y_test))

训练集上R^2:0.76210
测试集上R^2:0.57320

# 使用AdaBoostRegressor
adr = AdaBoostRegressor(LinearRegression(), n_estimators=100, learning_rate=0.001, random_state=14)
adr.fit(x_train, y_train)
print("训练集上R^2:%.5f" % adr.score(x_train, y_train))
print("测试集上R^2:%.5f" % adr.score(x_test, y_test))

训练集上R^2:0.77334
测试集上R^2:0.56307

# 使用AdaBoostRegressor; GBDT模型只支持CART模型
gbdt = GradientBoostingRegressor(n_estimators=100, learning_rate=0.01, random_state=14)
gbdt.fit(x_train, y_train)
print("训练集上R^2:%.5f" % gbdt.score(x_train, y_train))
print("测试集上R^2:%.5f" % gbdt.score(x_test, y_test))

训练集上R^2:0.76489
测试集上R^2:0.64161

  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
### 回答1: BaggingBoosting算法都是集成学习(Ensemble Learning)中常用的方法。 Bagging算法是基于Bootstrap采样技术的一种集成学习方法,它通过对原始数据集进行有放回的随机采样,生成多个子数据集,然后在每个子数据集上训练一个基学习器,最终将所有基学习器的结果进行投票或平均得到最终结果。Bagging算法可以有效地降低模型的方差,提高模型的泛化能力。 Boosting算法是一种迭代的集成学习方法,它通过训练一系列的基学习器,每个基学习器都是在前一个基学习器的误差上进行训练,最终将所有基学习器的结果进行加权得到最终结果。Boosting算法可以有效地降低模型的偏差,提高模型的准确率。 总的来说,Bagging算法适用于高方差的模型,而Boosting算法适用于高偏差的模型。 ### 回答2: BaggingBoosting算法都是机器学习中的集成学习方法,旨在通过结合多个弱模型的预测结果来提高模型的预测性能。下面将分别介绍这两种算法。 Bagging算法:Bagging全称为“Bootstrap Aggregating”,即自助采样聚合算法。它的基本思想是通过随机从数据集中有放回地采样多个样本子集,来训练多个不同的弱模型,最终通过对所有弱模型的预测结果进行平均或投票来得出集成模型的预测结果。这种采样方法可以保证每个模型都获得了与样本总量相等的训练数据,从而避免了测试集的过拟合问题。而且,因为每个模型都是独立地训练的,因此可以并行实现,大大加速了训练过程。常见的Bagging算法有随机森林(Random Forest)等。 Boosting算法Boosting全称为“Adaptive Boosting”,即自适应提升算法。它的基本思想是通过加权训练多个弱模型,每次训练都会根据前一次的训练结果对数据进行逐步调整,从而不断提高模型的准确性。具体来说,每次训练完一个模型后,根据该模型的预测错误情况,对预测错误的样本进行加权,如果该样本在上一轮的训练中预测错误,那么在下一轮训练中其权重会相应提高。最终权重高的样本会被更关注,从而创造新的模型以更加有效地捕捉指定数据集的信息。最后通过将所有弱模型的结果进行加权求和,得出整体模型的预测结果。常见的Boosting算法有AdaBoost、GBDT(Gradient Boosting Decision Tree)等。 综上,Bagging样本平等和并行化的优点,可以通过多种算法实现。Boosting则更加致力于错误的样本,而且可以通过梯度下降等方法进一步优化过程。这两种算法都是将弱学习器组合成一个强学习器并提高分类准确度的有效方法,可以通过不同的实现途径和数据集进行实验确认哪一种方法在给定的数据集中具有更高的性能。 ### 回答3: BaggingBoosting是两种常用的集成学习方法。它们的共同点是将多个分类器集成起来,提高整体预测的准确率。 BaggingBootstrap Aggregating算法是一种基于自助采样的集成学习方法。该算法的基本思想是从原始数据集中采用有放回的抽样方式,生成k个新的数据集,然后使用这些数据集训练k个基学习器。最终的预测结果是所有基学习器预测结果的平均或多数表决。Bagging算法的特点在于能够有效地减少方差,在处理复杂的模型以及存在过拟合的数据集时表现优异。 Boosting算法的核心思想是将若干个弱分类器进行加权集成,形成一个强分类器。boosting算法中各分类器的构建存在依赖性,即后一分类器的构造需要根据前一分类器所分类错误的数据进行训练。其中最著名的算法有Adaboost和Gradient Boosting。其中,Adaboost(Adaptive Boosting算法特点在于对训练数据中分类错误的样本进行加权,提高这些样本在后续分类器中的优先级,以此来提高整体预测精度;而Gradient Boosting算法则是在每次训练中,通过学习前一次链式模型的损失函数负梯度信息来修正模型预测值。 BaggingBoosting算法都是一种集成学习方法,但是它们的具体实现方式不同,Bagging采用的是有放回的抽样方式,从原始数据集生成多个数据集,训练多个基学习器,然后综合所有基学习器的预测结果;而Boosting则通过递归训练基分类器来不断提高预测能力。此外,Bagging算法在处理过拟合问题表现更为出色,而Boosting算法则更适合在复杂的数据集上使用。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Mr Robot

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值