决策树相关的一些概念

 

信息量

原则:

某事件发生的概率小,则该事件的信息量大。

如果两个事件X和Y独立,即p(xy)=p(x)p(y) ,假定X和Y的信息量分别为h(X)和h(Y),则二者同时发生的信息量应该为h(XY)=h(X)+h(Y)。

定义随机变量X的概率分布为p(x),从而定义X信息量:

 

 

 

熵(信息熵)

对随机事件的信息量求期望,得熵的定义:

 

注:底数是2时,单位是bit;若底数是e,单位是nat(奈特)

熵是随机变量不确定性的度量,不确定性越大,熵值越大;

若随机变量退化成定值,熵最小:为0

若随机分布为均匀分布,熵最大。

 

联合熵

两个随机变量X,Y的联合分布,可以形成联合熵Joint Entropy,用H(X,Y)表示

条件熵H(X,Y) – H(X)

(X,Y)发生所包含的熵,减去X单独发生包含的熵:在X发生的前提下,Y发生“新”带来的熵,该式子定义为X发生前提下,Y的熵:条件熵H(Y|X)

 

相对熵,KL散度

相对熵,又称互熵,交叉熵,鉴别信息,Kullback熵,Kullback-Leible散度等

设p(x)、q(x)是X中取值的两个概率分布,则p对q的相对熵是

 

 

E表示期望

说明:

相对熵是描述两个概率分布P和Q差异的一种方法。它是非对称的,这意味着D(P||Q) ≠ D(Q||P)。

有人将KL散度称为KL距离,但事实上,KL散度并不满足距离的概念,因为:(1)KL散度不是对称的;(2)KL散度不满足三角不等式。

 

互信息

两个随机变量X,Y的互信息,定义为X,Y的联合分布和独立分布乘积的相对熵。

互信息:I(X,Y)=H(X)+H(Y)-H(X,Y),以下是推导

 

条件熵

条件熵 H(Y|X)H(Y|X) 表示在已知随机变量 XX 的条件下随机变量 YY 的不确定性。条件熵 H(Y|X)H(Y|X) 定义为 XX 给定条件下 YY的条件概率分布的熵对 XX 的数学期望:

 

条件熵 H(Y|X)相当于联合熵H(X,Y) 减去单独的熵H(X),即

H(Y|X)=H(X,Y)−H(X)

 

以下也可以推出H(Y|X)=H(Y)-I(X,Y)

 

Venn图:帮助记忆

 

 

信息增益

概念:当熵和条件熵中的概率由数据估计(特别是极大似然估计)得到时,所对应的熵和条件熵分别称为经验熵和经验条件熵。

信息增益表示得知特征A的信息而使得类X的信息的不确定性减少的程度。

定义:特征A对训练数据集D的信息增益g(D,A),定义为集合D的经验熵H(D)与特征A给定条件下D的经验条件熵H(D|A)之差,即:

g(D,A) = H(D) – H(D|A)

显然,这即为训练数据集D和特征A的互信息。

 

信息增益率

信息增益率:gr(D,A) = g(D,A) / H(A)

 

Gini系数

 

 

 

 

本文搜集了决策树相关的一些概念公式等,为学习决策树时查阅,希望对你有所帮助

 

关注-微-公众号【学习与成长资源库】获取更多免费学习资料

 

参考

Python大战机器学习

邹博 机器学习视频课

李航 统计学习方法

周志华 机器学习

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

长青_416686950

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值