Python3机器学习实践:集成学习之GBDT

本文详细介绍了GBDT(Gradient Boosting Decision Tree),包括其原理、流程图、回归与分类应用,并通过北京PM2.5回归和成年人收入分类两个实例展示了GBDT的使用。强调了GBDT在解决分类问题时,即使使用回归树也能有效拟合目标变量的残差。
摘要由CSDN通过智能技术生成

gbdty1.png

1、GBDT说明

GBDT是Gradient Boosting Decison Tree的简称,其中Gradient是梯度,是这个方法的核心;Boosting是提升树,是这个方法的框架;Decision Tree是决策树,是实现这个方法用到的模型。
GBDT可以解决回归问题,经过一些处理也可以解决分类(二类、多类)问题,但是用到的树都是回归树,这一点需要牢记。
首先通过简单的回归例子说明一下提升树(Boosting)

如果样本1的输出真实值为10,树T1针对样本1的预测值为18,
然后我们让树T2去拟合样本1的值为10-18=-8(残差)。如果树T2的输出值为-10,
我们再让树T3去拟合-8-(-10)=2(残差),结果树T3的预测值为1。
如果到此迭代结束,在最终对样本1的预测

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AnFany

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值