- 博客(2)
- 资源 (1)
- 收藏
- 关注
转载 KL距离,Kullback-Leibler Divergence
KL距离,是Kullback-Leibler差异(Kullback-Leibler Divergence)的简称,也叫做相对熵(Relative Entropy)。它衡量的是相同事件空间里的两个概率分布的差异情况。其物理意义是:在相同事件空间里,概率分布P(x)的事件空间,若用概率分布Q(x)编码时,平均每个基本事件(符号)编码长度增加了多少比特。我们用D(P||Q)表示KL距离,计算公式如下:
2013-04-23 21:24:38 502
转载 Learning中的代数结构的建立 by MIT 林达华
Learning中的代数结构的建立 Learning是一个融会多种数学于一体的领域。说起与此有关的数学学科,我们可能会迅速联想到线性代数以及建立在向量空间基础上的统计模型——事实上,主流的论文中确实在很大程度上基于它们。 R^n (n-维实向量空间) 是我们在paper中见到最多的空间,它确实非常重要和实用,但是,仅仅依靠它来描述我们的世界并不足够。事实上,数学家们给我们提供了丰富得多
2013-04-03 18:57:21 591
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人