( 保证能看懂系列)集成算法之Boosting -XGboost 详细原理

预备知识:

(1)GBDT实现原理

 https://blog.csdn.net/Lee_Yu_Rui/article/details/107309184

https://blog.csdn.net/Lee_Yu_Rui/article/details/107294360

(2)bias 和 variance

(3)L1 和 L2 正则化(Ridge和lasso回归)

其本质就是通过L1或者L2正则化使得被正则化的元素之间变小的过程,比如RIdge对w或者说成直线的斜率进行L2正则化的时候,就会使得最后的斜率相比正则化之间变小,这就较少了对数据自变量的敏感性,从而使得产生的拟合直线的bias增加,从而减少方差,提高泛化能力

假设预备知识都没有问题,我们开看看XGboost的原理。

根据boosting算法族的思路,根据前一个学习器的训练效果对样本分布进行调整,再根据新的样本分布训练下一个学习器。以前谈到的算法如 AdaBoost或者GBDT的弱分类器都是基于CART树进行的。这里XGboost有它自己生成决策树的方式,要生成一个决策树,主要就是解决3个方面:

(1)如何划分特征

(2)输出数据O_{value}的规则(回归:采用何种计算输出值的方式,分类:大数原则还是加权概率等方式)

(3)如何在不同特征组合的树之间,选择一个最好的树(如CART分类是根据GINI系数增益,ID3 信息增益  C4.5信息增益率)

另外作为集成算法,还要(4)明确XGboost的损失函数以及最后的结合策略

所以本节会详细解释以上问题

明确XGboost的损失函数

XGboost的损失函数是在常规损失函数的基础上加入了L1正则项和L2正则项,所以降低XGboost过拟合的可能。

                                                               \sum_{i=1}^{n}L(y_{i},f(x)) + \gamma T + \frac{1}{2} \lambda O_{value}^{2}

T是叶子节点个数,O_{value} 是叶子节点输出值,所以可见后两项的作用分别是当gamma>0时,叶子节点的个数就会被抑制,从而起到限制树的大小的作用;当lambda>0时,O_{value}就会被抑制,从而抑制了对独立数据点的敏感性,也就是增加了算法的抗噪性。

Output value 和 Similarity score

  1. Output value

整个的决策过程其实就是不断最小化损失函数的过程,所以O_{value}就是所有数据的损失函数和最小所对应的O_{value}值,XGboost采用的是将损失函数通过二次展开后进行分析的。另外无论是分类还是回归,其初始值都是一个常数,默认情况f_{0}(x) = 0.5 ,所以损失函数的第一部分可以写成以下的样子,并进行泰勒展开

 

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Lee_Yu_Rui

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值