决策树中信息增益计算和代码理解

基础知识:

 

1、随机变量X=Xi(i=1,2,..n)的熵的定义:

2、随机变量X给定条件下随机变量Y的条件熵H(Y|X),定义为X给定条件下Y的条件概率分布的熵对X的数学期望:

其中计算H(Y|X=Xi)=求和P(Xi|X)*H(Di)

3、信息增益表示得知特征X的信息而使得类Y的信息的不确定性减少的程度,信息增益的用g(D,A),定义为集合D的经验熵H(D)与特征A给定条件下D的经验条件熵H(D|A)之差,即

4、决策树节点分裂时按照信息增益最小的原则来选择特征

代码:

number_feature = len(dataset[0]) - 1
    base_shannoent = shannon_Ent.calc_shannon(dataset)
    bestinfogain=0.0; bestfeature = -1
    for i in number_feature:
        fearlist = [example[i] for example in dataset]
        uniquevals =set(fearlist)
        new_entropy = 0.0
        for value in uniquevals:
            subdataset = splitDatase.split_dataset(dataset,i,value)
            prob = len(subdataset)/float(len(dataset))
            new_entropy += prob*shannon_Ent.calc_shannon(subdataset)
        infogain = base_shannoent - new_entropy
        if( infoGain > bestinfogain):
           bestinfogain = infoGain
           bestfeature = i

其中,用A表示特征的话, i表示的是集合dataset中的第i个特征(Ai),uniquevals代表的是第i个特征(Ai)的所有取值(Ai=Aii)

for value in uniquevals内的代码;

    1\先将集合D按照特征Ai的取值Aii划分成不同的子集合Di,

    2\再计算p(Aii|Ai)

    3\再计算p(Aii|Ai)*H(Yi),再对p(Aii|Ai)*H(Di)求和,得到H(D|Ai)

之后执行H(D)-H(D|Ai)得到g(D,Ai)

最后比较i为何值时g(D,Ai)最大,得到最优特征

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值