GBDT算法梳理

1.前向分布算法
一颗生成好的 决策树,假设其叶子节点个数为TT,该 决策树是由所有叶子节点对应的值组成的向量w∈RTw∈RT,以及一个把特征向量映射到叶子节点索引(Index)的函数q:Rd→{1,2,⋯,T}q:Rd→{1,2,⋯,T}组成的。因此,策树可以定义为ft(x)=wq(x)ft(x)=wq(x)。
决策树的复杂度可以由正则项Ω(ft)=γT+12λ∑Tj=1w2jΩ(ft)=γT+12λ∑j=1Twj2来定义,即 决策树模型的复杂度由生成的树的叶子节点数量和叶子节点对应的值向量的L2范数决定。
2.负梯度拟合
在这里插入图片描述
3.损失函数
在这里插入图片描述
4.回归
回归算法选择的损失函数一般是均方差(最小二乘)或者绝对值误差
5.二分类,多分类
二分类:利用Logistic回归
多分类:多分类器集成,利用Softmax
6.正则化
在这里插入图片描述
7.优缺点
优点:可以处理连续值和离散值;
缺点:由于弱学习器之间存在关联关系,难以并行训练模型
8.sklearn参数
最大深度max_depth:
最小样本数min_samples_split
叶子节点最少样本数min_samples_leaf
最大叶子节点数max_leaf_nodes
9.应用场景
GBDT几乎可用于所有回归问题(线性/非线性),亦可用于二分类问题(设定阈值,大于阈值为正例,反之为负例

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值