几句话之Bagging,随机森林,Boosting,adaboost,GBDT,XGBoost

Bagging

Bagging

随机森林

随机森林=决策树+Bagging

Boosting

Boosting

adaboost

在这里插入图片描述

GBDT

在这里插入图片描述

XGBoost

xgboost选择使用CART树来做回归而不是其他决策树,由于CART树的叶结点对应的值是一个实际的分数,而不是一个明确的类别,这有利于高效的优化算法。

XGBoost原理还是GBDT思想。XGBoost的创新点如下:
1 损失函数加入了正则项
2 目标函数不好算,用二阶泰勒公式进行了展开
3 树的划分标准变了

求树ft,就是求T(叶子结点个数)和wj(每个叶子结点的值)
随着树变深,损失函数本身应该越来越小,[损失下降]越大。
树的划分标准变了,变成了[损失下降]。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值