4.提升之梯度提升树(GBDT)

1.提升树

提升方法采用加法模型与前向分步算法,是以决策树为基分类器

ps:这里的决策树指CART树。

主要思想:对于提升树算法,简单来说就是每一步会拟合前一步的残差。

ps:只有当损失函数是均方误差的时候,每一步是拟合的残差,对于其他损失函数却不是。

提升树模型:

计算每个数据的残差:

通过残差学习一颗回归树:(构建树的过程)

然后更新树模型:

一直迭代直到构建出M颗树!

 

2.梯度提升树(GBDT)

引出GBDT:

在原有提升树上进行改进,在一些复杂的损失函数上我们并不能得到残差,为了解决这一问题引出了使用梯度的负方向来拟合残差并且适用于各种复杂的损失函数。

ps:梯度的负方向思想类似于梯度下降法,减去梯度方向相当于加上一个负梯度方向。

ps:基分类器仅支持CART树。

构建基分类器的过程:

首先gbdt对分类和回归问题进行了统一,回归因为标签有大小的意义利用残差有物理意义,分类的标签没有大小意义但是通过转化为概率的问题可以解决。

其次构建的时候每次分裂节点都会遍历每一个特征和对应的所有切分点找出最好的特征和对应的切分点。

ps:多分类问题,通过训练K个二分类模型。

ps:构建的过程也适用于提升树。

ps:构建的过程基于深度优先或者广度优先构建树。

计算每个数据的负梯度:

拟合负梯度,来构建一颗树:(构建树的过程)

更新梯度提升树模型:

一直迭代直到构建出M颗树!

gbdt用于构造特征:一共记录m个叶子节点和k个模型,只要该样本落在第i颗树对应的叶子节点那么就把该节点的值置为1,代表这个样本在对应的叶子节点位置出现过

ps:最终可以构建K*M个特征。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值