吴恩达机器学习笔记 二十五 衡量纯度 决策树特征选择 信息增益 熵的计算公式

全都是猫,很纯,有的不是猫,也很纯。

熵(entropy): 衡量一组数据纯度的指标。熵的图象如下图所示,纵轴通常用 H 来表示。当训练集的比例为一半一半的时候熵最高,为1;全是猫或者全是狗的时候最低,为0。

选择什么特征可以最大程度地减少熵 ?  熵的减少在 决策树 中称信息增益(information gain)

因为分到左右两支的样本数不同,所以要计算左右两个子树的熵的加权平均

 实际中要对比的熵的减少,用根结点的熵减去计算出的加权平均,得到的结果就是信息增益,衡量的是让树分裂而导致的纯度的提升。如果计算出来 没减少多少熵,那么就不必冒着过拟合的风险再分裂树。

 熵的计算公式

其中 p 是当前这个结点有多少是正样本(多少只猫),w 是有多少样本进入到了这个结点

  • 14
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值