决策树公式

决策树公式

1. 熵

1147639-20180825124022619-1545341549.png

Gini系数

1147639-20180825124022764-1872882874.png

1.1数据表

outlooktemperaturehumiditywindy play
sunnyhothighFALSEno
sunny hot high TRUE no
overcast hot high FALSE yes
rainy mild high FALSE yes
rainy cool normal FALSE yes
rainy cool normal TRUE no
overcast cool normal TRUE yes
sunny mild high FALSE no
sunny cool normal FALSE yes
rainy mild normal FALSE yes
sunny mild normal TRUE yes
overcast mild high TRUE yes
overcast hot normal FALSE yes
rainy mild high TRUE no

play的熵:

1147639-20180825124022893-322986515.png

outlook的信息熵:

1147639-20180825124023043-1270403405.png
  • outlook=sunny时,2/5打球概率,3/5打球概率. entropy=0.971
  • outlook=overcast,entropy=0
  • outlook=rainy时,entropy=0.971

5/14 * 0.971 + 4/14 * 0 + 5/14 * 0.971=0.693
信息增溢gain(outlook)=0.940-0.693=0.247
同样计算出gain(temperature)=0.029
gain(humidity)=0.152
gain(windy)=0.048
gain(outlook)最大(信息熵下降最快),所以决策树根节点选outlook

2.经验熵H(D)

为了计算熵,我们需要计算所有类别所有可能值所包含的信息期望值,p(xi)是选择该分类的概率:

1147639-20180825124023183-327881247.png

其中,n为分类数目,熵越大,随机变量的不确定性就越大。
设有K个类Ck,k = 1,2,3,···,K,|Ck|为属于类Ck的样本个数,这经验熵公式可以写为:

1147639-20180825124023332-1195415531.png

outlook特征的熵

1147639-20180825124023478-977331525.png

3.条件熵

条件熵H(Y|X)表示在已知随机变量X的条件下随机变量Y的不确定性,随机变量X给定的条件下随机变量Y的条件熵(conditional entropy) H(Y|X),定义X给定条件下Y的条件概率分布的熵对X的数学期望:

1147639-20180825124023615-498927093.png

其中,pi = P(X=xi)

4.信息增益

信息增益是相对于特征而言的。所以,特征A对训练数据集D的信息增益g(D,A),定义为集合D的经验熵H(D)与特征A给定条件下D的经验条件熵H(D|A)之差,即:

1147639-20180825124023762-399352137.png

5.信息增益比

特征A对训练数据集D的信息增益比gR(D,A)定义为其信息增益g(D,A)与训练数据集D的经验熵之比:

1147639-20180825124023887-787525542.png

转载于:https://www.cnblogs.com/wnmjzt/p/9533561.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值