决策树中熵的理解

决策树是用于分类的统计模型。

熵的概念

熵是来衡量随机变量的不确定性的。Shannon entropy来定量化了这种不确定性。
有以下公式

H(x)=iP(xi)I(xi)=iP(xi)logbP(xi)

接下来通过例子来说明。
比如投硬币,正面和反面的概率都是1/2,在这种情况下,一个比特就可以来传递每一次的结果。投了4次硬币,2次正面,2次反面。根据香农公式那么熵就为E1=-1/2log2(1/2)-1/2log2(1/2)=1
同理如果每次都是证明的话,那么熵为0.

接下来来理解一下比特(bits)的概念
考虑三种可能结果的情况,正,负,中三种结果。其中正的结果2次,负的结果1次,中的结果1次。根据公式熵为1.5.

信息增益

信息增益是用来选取属性的。被选择的分类属性,信息增益是最高的。
信息增益的方法会偏向于选择将样本分为多类的属性,而这个属性对于机器学习可能是没有意义的。
因此用信息增益的方式来选取特征。
比如对于特征A的信息增益有以下公式

Gain(A)=Info(D)InfoA(D)

where
Inf
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值