提升Boost:GBDT & Xgboost & Adaboost

提升:将弱分类器进行提升,形成强分类器。
两种基本思想:
1、梯度提升(Gradient Boosting, GB)
在每一步生成弱分类器后,依据损失函数的梯度方向,迭代选择负梯度方向上的基函数,逼近局部极小值。
->GBDT & Xgboost
2、样本加权
考虑提高分类错误样本的权值,即每次更关心做错了的部分,从而提高分类器的能力。
->Adaboost


梯度提升算法基本模型
初始模型:这里写图片描述
对m = 1,…,M

  • 计算伪残差(pseudo residuals):
    这里写图片描述

  • 得到基函数:用数据这里写图片描述 计算拟合残差的基函数这里写图片描述

  • 计算步长:这里写图片描述

  • 更新模型:这里写图片描述

决策树是提升算法中的典型基函数->GBDT


GBDT
在上述基本模型的第m步中,根据数据和伪残差得到的基函数为:
这里写图片描述
其中,J为这里写图片描述 的叶节点数;

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值