决策树(一)

参考:《机器学习》周志华

想对决策树做一个简单的回顾和总结,因为发现在Random Forest, GBDT和XGBoost中的基分类器中起到重要的作用。

决策树是非线性的。

定义

一般的,一颗决策树包含一个根节点,若干个内部节点和若干个叶子节点;叶节点对应于决策结果,根节点和内部节点对应一个属性。

叶节点的三种情况

  1. 当前节点包含的所有样本属于同一类别C。将该节点标记为C类叶节点
  2. 属性集为空,或者是所有样本在属性集上取值相同。将该节点标记为叶节点,其类别标记是该节点所含样本中类别数最多的类。
  3. 当前节点包含的样本集合为空。将该节点标记为叶节点,其类别标记是父节点中所含样本中类别数最多的类。

划分选择
决策树中关键的一步是:如何选择划分属性,即内部节点。我们希望落入叶子节点的样本尽可能地属于同一个类别,即叶子节点的纯度越高越好。

下面,我们介绍选择划分属性的不同方式:

  • ID3决策树使用的划分准则是信息增益(information gain)
    首先介绍什么是熵:熵衡量事物的不确定性。熵越小,越确定,即样本纯度越高。

    信息熵:

    E n t ( D ) = − ∑ i = 1 k p i l o g 2 ( p i ) Ent(D) = -\sum_{i=1}^{k}p_ilog_2(p_i) Ent(D)=i=1kpilog2(pi),其中 k k k 表示类别总数, p i p_i pi 表示样本 D D D 中第 i i i 类别的样本所占的比例。

    信息增益
    选择属性a进行划分带来的信息增益是:
    G a i n ( D , a ) = E n t ( D ) − ∑ v = 1 V ∣ D v ∣ ∣ D ∣ E n t ( D v )

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值