GBDT--简单理解

梳理

1.Model Ensemble 可以分为三大类:Bagging,Boosting, Stacking.
2.Boosting可以说是一个思想(框架),而Adaboost等算法只是其一个子类,记得ICCV2015有一个结合CNN和Boosting的工作获得了Best Paper Award?:
3.Boosting的 前向分布算法(在每一步求解弱分类器Φ(m)和其参数w(m)的时候不去修改之前已经求好的分类器和参数):

这里写图片描述

4.不同的objective和最小化其的方法决定了不同种类的Boosting:

这里写图片描述

5.GBDT其实就是上图中的Gradient Boosting的一个子类(弱分类器为决策树)

决策树

1.决策树的入门介绍参考: 算法杂货铺——分类算法之决策树(Decision tree)
2.决策树的特征选择: 1)信息增益, 2)信息增益比
3.决策树的生成算法:1)ID3算法–根据信息增益; 2)C4.5算法–根据信息增益比; 3)CART(包括回归和分类;二叉树生成)
4.决策树的剪枝:其实就是一个Loss和T(表示决策树结点个数)trade off的过程
5.具体细节参考:《统计学习方法–李航》
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值