AI数学基础——经验分布,熵

经验分布

经验分布函数是与样本经验测度相关的分布函数。 该分布函数是在n个数据点中的每一个上都跳跃1 / n的阶梯函数。 其在测量变量的任何指定值处的值是小于或等于指定值的测量变量的观测值的数。
经验分布函数是对样本中生成点的累积分布函数的估计。 根据Glivenko-Cantelli定理,它以概率1收敛到该基础分布。 同时也存在一些结果来量化经验分布函数与潜在的累积分布函数的收敛速度。

在这里插入图片描述

我的理解

经验分布是对样本的统计,单一样本的概率分布为 1 / N 1/N 1/N
画图表示,可看到分布函数为呈跳跃上升的,每一跳跃为1/n,若有重复L次的值,则按1/n的L倍跳跃上升。图中圆滑曲线是总体X的理论分布函数F(x)的图形。若把经验分布函数的图形连成折线,那么它实际就是累积频率直方图的上边。
这和概率分布函数的性质是一致的。
在这里插入图片描述
经典统计推断主要的思想就是用样本分布来推断总体分布。

熵详细介绍
下文仅为个人总结,参考

信息熵(information entropy)

信息熵是对信息的度量,对某一事件,信息越多则越了解。那么该事件的不确定性越低。
信息熵越低,信息的确定性越低。中国是一个国家。
而对于海南下雪了,我们需要大量的信息来佐证,则信息的熵很高。
这里仍然很抽象,度量的标准仍然很模糊,我们接着往下看

考虑随机变量 x x x ,发生的概率为 P ( x ) P(x) P(x) , I ( x ) I(x) I(x) 随机变量 x x x 的自信息 (self-information),描述的是随机变量的某个事件发生所带来的信息量。
事件发生产生信息,多个事件x,y(相互独立)一起发生,则产生信息增加。
I ( x , y ) = I ( x ) + I ( y ) I(x,y)=I(x)+I(y) I(x,y)=I(x)+I(y)
P ( x , y ) = P ( x ) ∗ P ( y ) P(x,y)=P(x)*P(y) P(x,y)=P(x)P(y)
I ( x ) I(x) I(x)一定与 P ( x ) P(x) P(x)的对数有关。
I ( x ) = − l o g p ( x ) I(x)=-logp(x) I(x)=logp(x)
I ( x ) I(x) I(x) 的关于概率分布 P ( x ) P(x) P(x)期望为:
H ( X ) = − ∑ x p ( x ) l o g p ( x ) = − ∑ i = 1 n p ( x i ) l o g p ( x i ) H(X)=-\displaystyle\sum_{x}p(x)logp(x)=-\sum_{i=1}^{n}p(x_i)logp(x_i) H(X)=xp(x)logp(x)=i=1np(xi)logp(xi)
H ( x ) H(x) H(x<

  • 2
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值