算法知识点-GBDT

35 篇文章 0 订阅 ¥299.90 ¥399.90
GBDT是一种基于CART的加法模型,通过减少损失函数的负梯度残差来训练。停止生长条件包括样本数、最大深度、叶子节点数和损失函数约束。特征权重通过基尼指数比例定义。并行计算在负梯度计算、特征查找和结果累加阶段。预排序特征可加速训练,提高鲁棒性。相比逻辑回归,GBDT在处理非线性、异常值和缺失值上有优势。
摘要由CSDN通过智能技术生成

简述:
GBDT是以CART为基分类器的加法结构树模型,其每个基分类器的输入由上一个分类器的残差作为输入,通过不断减少残差达到训练的目的。其中残差由损失函数的负梯度在当前模型的值进行估算。

树停止生长的条件:
1、划分节点最少的样本数;
2、树的最大深度;
3、最多的叶子节点数;
4、loss满足约束条件等。

节点信息保存:
中间节点保存特征分割的阈值;叶子节点作为类别概率。

如何进行定义特征权重?
通过计算当前特征的基尼指数与所有特征的比例作为权重。

GBDT哪些部分可以并行?
计算样本的负梯度时;
查找样本的负梯度时;
查找特征和分割最佳分割点时;
最后结果累加的时候等。

GBDT如何加速训练:
对特征进行预排序,并存储为block结构,可以对特征进行重复利用,并利用多线程快速查找,加速查找特征。

GBDT相对于逻辑回归的优缺点:
GBDT相对于逻辑回归具有树模型的优点,也就是抗噪声能力强,对异常点不敏感,鲁棒性强;
LR则对于线性问题上更擅长,而GBDT则不擅长线性问题;
同时GBDT对于缺失值有很好的处理方法,而LR没有。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AI看世界

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值