Facebook的GBDT+LR模型python代码实现

19 篇文章 2 订阅
9 篇文章 3 订阅
本文通过代码详细展示了如何实现GBDT+LR模型,将特征通过GBDT转换为一维向量,再用OneHot编码,最后通过LR进行预测。在iris数据集上进行实验,结果显示GBDT+LR模型相比单独的GBDT模型在AUC上有所提升,验证了GBDT+LR的优越性。同时强调了GBDT模型过深可能导致过拟合,影响模型泛化能力。
摘要由CSDN通过智能技术生成

目标:GBDT+LR模型

实现GBDT+LR模型代码,并比较和各种RF/XGBoost + LR模型的效果(下篇),发现GBDT+LR真心好用啊。

继续修复bug:GBDT和LR模型需要分开用不同的数据训练,当数据量多的时候,就能体现出差别,分开训练时防止过拟合,能提升模型的泛化性能。


步骤:GBDT+OneHot+LR

构造GBDT+LR步骤
训练阶段:
1、 获取特性数据,拆分成3组,一组测试数据,一组GBDT训练数据,一组LR训练数据
2、训练GBDT分类器
3、遍历GBDT树的叶子节点,拼接成一个长长的一维向量
4、 训练OneHot编码器
5、 训练LR模型
预测阶段:
1、把带预测的特征输入到GBDT
2、获得叶子节点,拼接成一个常常的一维向量
3、获得OneHot向量
4、LR预测结果

这里发现了上篇文章的一个错误:
就是GBDT树的叶子节点,输出的不是0/1的预测值,也不是0/1的概率,而是一些实数值,值还比较大,因此,叶子节点的值,拼接出来的向量,是个长长的非稀疏矩阵。
结果表明,GBDT+LR效果好过单纯的GBDT。
GBDT模型不能太深,太深效果反而不好,可能跟GBDT容易过拟合有关系。


测试数据:iris

数据采用sklearn里面自带的iris花分类数据。为了模拟CTR的二分类效果,做了一下特殊处理:

1、 iris花是个3分类的数据,因此把分类为2的数据,统一归为0,这样就模拟了0/1的二分类
2、分类数据比0/1=2:1

提醒:貌似GBDT模型不能太深,太深效果反而不好,可能跟GBDT容易过拟合有关系。


代码:

from sklearn.datasets import load_iris
import numpy as np
import pandas as pd
from sklearn.ensemble import GradientBoostingClassifier

np.random.seed(10)

# 加载测试数据
iris_data,iris_target = load_iris(return_X_y=True,as_frame=True)
iris_data.columns =['SepalLengthCm','SepalWidthCm','PetalLengthCm','PetalWidthCm']
print(iris_data.head(5))
print(iris_data.columns)
print(iris_target)
iris_target = pd.DataFrame(iris_target,dtype='float32')  #替换类型
print(iris_target.dtypes)
iris_target[iris_target['target']==2]=0  #把类别为2的归为0,这样模拟CTR的0/1标记。

iris=iris_data.merge(iris_target,left_index=True,right_index=True)  #拼接成一个大的Dataframe,便于拆分测试数据
print(iris.head(5))
from sklearn.model_selection import train_test_split

# 拆分测试数据和验证数据
iris_train ,iris_test = train_test_split(iris,test_size=0.8,random_state=203)
print(iris_train.head(5))

#拆分特征和标签为测试集和训练集
Y_train = np.array(iris_train['target'])
X_train = iris_train.drop(columns=['target'])

#训练集进一步拆分为GBDT训练集和LR训练集,两者分开,能防止过拟合,提升模型的泛化性能。
X_train_GBDT ,X_train_LR,Y_train_GBDT,Y_train_LR = train_test_split(X_train,Y_train,test_size=0.5,random_state=203)

print(X_train_GBDT.head(5))

Y_test = np.array(iris_test['target'])
X_test = iris_test.drop(columns=['target'])
print(X_test.head(5))

#训练GBDT模型
from sklearn.ensemble import GradientBoostingClassifier
GBDT = GradientBoostingClassifier(n_estimators=5)
GBDT.fit(X_train_GBDT,Y_train_GBDT)

#GBDT直接预测
GBDTPredict= GBDT.predict(X_test)

#获取GBDT叶子节点的输出,展开成1维
GBDTy=GBDT.apply(X_train_GBDT)[:,:,0]

#训练OneHot编码
from sklearn.preprocessing import OneHotEncoder
OneHot = OneHotEncoder()
OneHoty=OneHot.fit_transform(GBDTy)

# 导入线性模型LR
from sklearn.linear_model import LinearRegression

OneHot.transform(GBDT.apply(X_train_LR)[:,:,0])
LR = LinearRegression()
LR.fit(OneHot.transform(GBDT.apply(X_train_LR)[:,:,0]),Y_train_LR)

#test GBDT输出预测的概率值
GBDT.predict_proba(X_test)[:,1]

# 把测试数据输入到训练好的GBDT模型,然后得到叶子节点的值
GBDTtesty=GBDT.apply(X_test)[:,:,0]
print(GBDTtesty)
# 得到OneHot编码
OneHotTesty = OneHot.transform(GBDTtesty)
#LR模型预测
LRy= LR.predict(OneHotTesty)
print(LRy)

#导入评估模块,使用AUC 评估模型
from sklearn.metrics import roc_curve,roc_auc_score
# 测试GBDT+LR的预测效果
pr,fr,_=roc_curve(Y_test,LRy)
print(Y_test)
print('roc_auc_score of GDBT+LR is ',roc_auc_score(Y_test,LRy))

from matplotlib import pyplot
pyplot.plot(pr,fr)
pyplot.xlabel("pr")
pyplot.ylabel('fr')
pyplot.show()

# 测试GBDT预测的概率值和真值的差距
print('roc_auc_score of GDBT predict_proba is ',roc_auc_score(Y_test,GBDT.predict_proba(X_test)[:,1]))
# 测试GBDT预测值和真值的差距
print('roc_auc_score of GDBT predict is ',roc_auc_score(Y_test,GBDT.predict(X_test)))

结果比较:与直接GBDT模型的比较

roc_auc_score of GDBT+LR is  0.8348255634455078

在这里插入图片描述

直接用GBDT预测的结果:

roc_auc_score of GDBT predict_proba is  0.8260265514047544
roc_auc_score of GDBT predict is  0.8260265514047544

可以看到,GBDT+LR模型的效果,好于GBDT。

GBDT+LRPython实现可以按照以下步骤进行: 1. 数据预处理:对数据进行清洗、缺失值处理、特征选择等操作。 2. 数据加载:使用Python的数据处理库(如pandas)加载数据集。 3. 模型搭建:使用GBDT模型进行特征转换,将原始特征转换为GBDT树的叶子节点输出的实数值。 4. 训练及预测:使用训练数据训练GBDT模型,并将训练得到的特征转换结果作为LR模型的输入进行训练。然后使用测试数据进行预测。 具体的实现步骤可以参考引用\[1\]和引用\[3\]中提到的内容。在训练阶段,需要获取特征数据并拆分成训练数据和测试数据,然后分别训练GBDT分类器和LR模型。在预测阶段,将待预测的特征输入到GBDT模型中,获取叶子节点并进行拼接,然后使用OneHot编码器将拼接结果转换为OneHot向量,最后使用LR模型进行预测。 总的来说,GBDT+LRPython实现包括数据预处理、数据加载、模型搭建、训练及预测等步骤,具体的实现细节可以参考引用\[1\]和引用\[3\]中的内容。 #### 引用[.reference_title] - *1* [推荐系统 | 基础推荐模型 | GBDT+LR模型 | Python实现](https://blog.csdn.net/liujiesxs/article/details/126723249)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [FacebookGBDT+LR模型python代码实现](https://blog.csdn.net/weixin_43290383/article/details/121306368)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值