xgboost与gbdt

1.先明确一下分类树和回归树的概念:
分类树使用信息增益或增益比率来划分节点;每个节点样本的类别情况投票决定测试样本的类别。
回归树使用最大均方差划分节点;每个节点样本的均值作为测试样本的回归预测值。
2.都是利用了boosting思想,最小化残差(偏差)。
3.GBDT的基学习器一定是DT,而且是利用残差梯度构造基学习器,基学习器是先训练好的,再确定叶节点的输出(树的预测值,也就是权重w)。Xgboost的基学习器可以使树模型,也可以是其他模型,而且利用了残差的一阶导和二阶导;使用树模型时,分裂点是通过代价函数一步步算出来的,而不是利用GBDT直接利用残差梯度构造的树结构。
4.都可以增加shrinkage系数,这样会增加基分类器的个数。
这里写图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值