决策树学习笔记

本文介绍了决策树的学习过程,包括信息熵、基尼指数等分裂依据,比较了ID3、C4.5和CART的区别。同时,探讨了决策树的优缺点,如易于理解、处理连续和离散值,以及过拟合问题。剪枝是防止过拟合的重要手段,分为预剪枝和后剪枝。最后,简述了GBDT、xgboost和lightGBM之间的差异。
摘要由CSDN通过智能技术生成
  • 决策树学习是数据挖掘中常用的一种监督学习方法,一颗决策树包含根结点,内部结点和叶结点。其根结点为算法开始阶段,包含所有样本,内部结点代表测试阶段,对应按照某个特征进行的划分结果,叶子结点对应最终决策结果(分类结果或回归结果)
  • 几种决策树对比,主要差别就是分裂依据
    信息熵: E n t ( D ) = − ∑ k = 1 ∣ y ∣ P k L o g 2 P k Ent(D)=-\sum_{k=1}^{\left|y\right|}P_kLog_2P_k Ent(D)=k=1yPkLog2Pk
    求集合样本数: N u m ( x ) Num(x) Num(x)
    IV: I V ( a ) = − ∑ v = 1 V N u m ( D v ) N u m ( D ) l o g 2 N u m ( D v ) N
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值