从DT到Random Forest、GBDT

本文详细介绍了决策树的基础,包括ID3、C4.5和CART算法,接着探讨了Random Forest的原理,如有放回采样和特征选择。最后,讨论了GBDT的回归树特性及其如何通过拟合残差来构建模型。
摘要由CSDN通过智能技术生成

决策树

基础的内容,参考的链接:
http://leijun00.github.io/2014/09/decision-tree/

  • ID3

    • 最基础的决策树,多叉树,仅能处理离散型值
    • 采用信息增益来处理 g(D,A)=H(D)−H(D|A)
    • 会偏向有较多属性的feature,容易过拟合
  • C4.5

    • 对ID3的改进
    • 对于连续值,进行划分。假设是min,k1,k2,…,max的划分,依次尝试划分的方式,计算最佳划分
    • 采用信息增益比率,避免了偏向较多属性feature
    • 处理缺失值(填充or忽略)
  • CART

    • 用基尼纯净度来衡量
    • 二叉树的形式
  • 回归树

    • 采用平方误差损失求解最优的切分变量和切分点
    • 每个叶子节点的输出就是一个值

Random Forest

GBDT

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值