GBDT算法原理---浅讲

GBDT是一种迭代的机器学习算法,它结合了Boosting框架和CART回归树。通过最小化损失函数,GBDT逐步构建弱学习器并组合成强学习器,用于预测和回归任务。在每一轮迭代中,GBDT计算负梯度来指导新树的构造,以优化整体预测效果。
摘要由CSDN通过智能技术生成

1.引言

个体学习器间存在强依赖关系、必须串行生成的序列化方法:Boosting(提升方法(Boosting),是一种可以用来减小监督式学习中偏差的机器学习算法。面对的问题是迈可·肯斯(Michael Kearns)提出的:一组“弱学习者”的集合能否生成一个“强学习者”?弱学习者一般是指一个分类器,它的结果只比随机分类好一点点;强学习者指分类器的结果非常接近真值)
个体学习器间不存在强依赖关系、可同时生成的并行化方法:Bagging (引导聚集算法),又称装袋算法,是机器学习领域的一种团体学习算法。最初由Leo Breiman于1996年提出。Bagging算法可与其他分类、回归算法结合,提高其准确率、稳定性的同时,通过降低结果的方差,避免过拟合的发生)

2.概述

GBDT全称Gradient Boosting Decison Tree,GBDT是迭代,使用了前向分布算法,但是弱学习器限定了只能使用CART回归树模型,GBDT简单的说Boosting框架+CART回归树模型+任意损失函数

3.算法

1.回归算法
输入:训练样本 D={(x1,y1),(x2,y
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值