熵模型—— 熵,条件熵,联合熵,相对熵,互信息及其关系,最大熵模型。。

引入1:随机变量函数的分布

 给定X的概率密度函数为fX(x), 若Y = aX, a是某正实数,求Y得概率密度函数fY(y).

解:令X的累积概率为FX(x), Y的累积概率为FY(y).

则 FY(y) = P(Y <= y) = P(aX <= y) = P(X <= y/a) = FX(y/a),

则 fY(y) = d(FX(y/a)) / dy = 1/a * fX(x/a)

引入2:如何定义信息量

某事件发生的概率小,则该事件的信息量大;
如果两个事件X和Y独立,即p(xy) = p(x)p(y),假定X和Y的信息量分别为h(X)和h(Y),则二者同时发生的信息量应该为h(XY) = h(X) + h(Y).
定义事件X发生的概率为:p(x),则X的信息量为:h(p(x)) = -lnp(x)
那么,事件X的信息量的期望如何计算呢?
一句话总结最大熵模型:

  1. 我们的假设应当满足全部已知条件;

  2. 对未知的情况不做任何主观假设。

(一)熵

对随机事件的信息量求期望,得熵的定义:

H(X) = -Σp(x)lnp(x)

经典熵的定义,底数是2,单位为bit;
为了方便计算可以使用底数e,则单位为nat(奈特)。
可以得到,当一个变量X服从均匀分布时,它所包含的信息熵是最大的。

计算如下:

p(xi) = 1/N, 则熵为:H(p) = -Σpi * lnpi = -Σ1/N * ln(1/N) = lnN

所以,我们可以得到如下结论:

0 <= H(X) <= ln|X|
熵是随机变量不确定性的度量,不确定性越大,熵值越大;
若随机变量退化为定值,则熵最小,为0;
锁随机分布为均匀分布,熵最大。
这是无条件的最大熵分布,那如果是有条件的,该怎么做呢?
使用最大熵模型
若只给定期望和方差的前提下,最大熵的分布形式是什么?

二)联合熵和条件熵

两个随机变量X,Y的恋歌分布,可以形成联合熵(Joint Entropy),用H(X, Y)表示。
即:H(X, Y) = -Σp(x, y) lnp(x, y)
H(X, Y) - H(Y)
表示(X, Y)发生所包含的熵,减去Y单独发生包含的熵:在Y发生的前提下,X发生新带来的熵。
条件熵:H(X|Y)
这里写图片描述

(三)相对熵/交叉熵/K-L散度

相对熵,又称互熵,交叉熵,鉴别信息,Kullback-Leible散度等。
这里写图片描述

相对熵具有如下性质:

相对熵可以度量两个随机变量的距离;
一般不具有对称性,即D(p||q) ≠ D(q||p),当且仅当p = q, 则相对熵为0,二者相等;
D(p||q) >= 0, D(q||p) >= 0.
那么,我们应该使用D(p||q) 还是 D(q||p)呢?

假定已知随机变量P,求一个随机变量Q,使得Q尽量接近于P,这样我们可以使用P和Q的K-L来度量他们的距离。

假定使用KL(Q || P),为了让距离最小,则要求P为0的地方,Q尽量为0。这样会得到比较瘦高的分布曲线;
假定使用KL(P || Q),为了让距离最小,则要求P不为0 的地方,Q也尽量不为0。这样会得到比较矮胖的分布曲线。

(四)互信息

两个随机变量X,Y的互信息,定义为X,Y的联合分布和独立分布乘积的相对熵。

即: I(X, Y) = D(P(X, Y) || P(X)P(Y))

即:
这里写图片描述
可以通过简单的计算得到:

H(X|Y) = H(X) - I(X, Y),

互信息为0,则随机变量X和Y是互相独立的。

(五)各种熵之间的关系

H(X|Y) = H(X, Y) - H(Y); H(Y|X) = H(X, Y) - H(X) —— 条件熵的定义
H(X|Y) = H(X) - I(X, Y); H(Y|X) = H(Y) - I(X, Y)
I(X, Y) = H(X) - H(X|Y) = H(X) + H(Y) - H(X, Y) —— 也可以作为互信息的定义
H(X|Y) <= H(X):
H(X)表示X的不确定度;H(X|Y)表示给定Y的情况下,X的不确定度。
如果X与Y完全独立,则二者相等(给不给Y对X能给出多少信息无关);
而如果X与Y不是独立的,则给定Y之后会降低X的熵,即X的不确定性会降低。
用Venn图帮助记忆:
这里写图片描述

(六)最大熵模型

最大熵模型的原则:

承认已知事物(知识);
对未知事物不做任何假设,没有任何偏见。
对一个随机事件的概率分布进行预测时,我们的预测应当满足全部已知条件,而对未知的情况不要做任何主观假设。在这种情况下,概率分布最均匀,预测的风险最小。

因为这时概率分布的信息熵最大,所以人们把这种模型叫做“最大熵模型”(Maximum Entropy)。

最大熵模型一般是在给定条件下求条件熵,所以我们可以使用Lagrange乘子法来解决。

1)最大熵的一般模型
这里写图片描述

2)Lagrange函数为:

这里写图片描述

其中,含λi的第一个约束项表示我们的模型要能够很好的解释初始数据集,fi(x, y)表示我们选取的第i个特征;含ν0的第二个约束项表示概率加和为1.

p(x, y) = p(y | x) * p(x),而p(x)是已知的,所以我们用p(x)_bar来表示已知量。

3)对p(y|x)求偏导

这里写图片描述

其中,为了计算方便,我们令ν0 = λ0 * p(x). 然后得到其最优解形式,如红框内所示。

4)归一化

上面通过求偏导得到的p*是没有经过归一化的,加上归一化因子zλ(x)。

这里写图片描述

5)与Logistic/SoftMax回归的对比

Logistic/SoftMax回归的后验概率形式:

最大熵模型的后验概率形式:
这里写图片描述
Logistic回归是统计学习中的经典分类方法,可以用于二类分类也可以用于多类分类。
这里写图片描述
最大熵模型由最大熵原理推导出来,最大熵原理是概率模型学习或估计的一个准则,最大熵原理认为在所有可能的概率模型的集合中,熵最大的模型是最好的模型,最大熵模型也可以用于二类分类和多类分类。

Logistic回归模型与最大熵模型都属于对数线性模型。

逻辑回归跟最大熵模型没有本质区别。逻辑回归是最大熵对应类别为二类时的特殊情况

指数簇分布的最大熵等价于其指数形式的最大似然。

二项式分布的最大熵解等价于二项式指数形式(sigmoid)的最大似然;
多项式分布的最大熵等价于多项式分布指数形式(softmax)的最大似然。

求最大熵的问题最后可以化成MLA的问题做,两者的出发点不同,但是最终的形式是一样的。

中心极限定理:一组有确定方差的独立随机变量的和趋近于高斯分布。即给定随机变量X和Y,则X+Y比X或Y更接近于高斯分布。

【总结】

根据最大似然估计的正确性可以断定:最大熵的解(无偏的对待不确定性)是最符合样本数据分布的解,即最大熵模型的合理性;
信息熵可以作为概率分布集散程度的度量,使用熵的近似可以推导出gini系数,在统计问题、决策树等问题中有重要应用;
熵:不确定性的度量;
似然:与知识的吻合程度;
最大熵模型:对不确定度的无偏分配;
最大似然估计:对知识的无偏理解。

原文地址:http://www.cnblogs.com/little-YTMM/p/5582271.html

阅读更多
想对作者说点什么? 我来说一句

没有更多推荐了,返回首页