机器学习(1) 熵 entropy

熵:反应一个系统的有序程度,熵越高,有序程度越低

熵的本质是香农信息量 (log1p) 的期望。



  • 自信息

用于衡量单一事件发生时所包含的信息量多寡,记作 I(X)

I(x)=logP(x)

P(x) 越小,表示单一事件的发生概率越小,一旦发生,则包含的信息量越多,则 I(x) 越大。若 P(x)=1 ,则自信息量为0。

就像打辩论的时候讲一件众所周知的事情等于没讲一样,不能带来任何信息。



  • 信息熵

对于随机变量 X ,若 X ={ x1,x2,...,xn },其对应概率为 P(X=xi),i=1,2,...n

则随机变量 X 的熵定义为:

H(X)=E[I(X)]=i=1np(xi)logp(xi)

p(xi) 越大,则 H(x) 越小



  • 联合熵

假设 X,Y 的联合分布为 P(X,Y) ,则其信息熵为:

H(X,Y)=E[I(X,Y)]=x,yp(x,y)logp(x,y)



  • 条件熵

条件熵描述了在已知随机变量 X 的值的情况下关于随机变量 Y 的信息熵
H(Y|X=x) 表示在 X=x 的情况下 Y 的信息熵,则,

H(Y|X)=xp(x)H(Y|X=x)=xp(x)yp(y|x)l
  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值