Python3.x实现离散数据信息熵的计算

一、信息熵

        信息论的背后是:从小概率事件中学习到更多有价值的信息。而如何对信息进行度量最初起源于1948年香农提出的信息熵。它用于衡量变量的不确定性,变量的不确定性越大,熵也就越大。如热力学中的热熵表示分子状态的混乱程度,熵越大,表示分子状态越混乱。

       同时,信息熵在数学上可用信息的期望值表示。

       假设对离散型事件 {X=x}\\,定义{x\mathop{​{}}\nolimits_{​{i}}}\\的信息为:

                          {I \left( x\mathop{​{}}\nolimits_{​{i}} \left) =-log\mathop{​{}}\nolimits_{​{2}}P \left( x\mathop{​{}}\nolimits_{​{i}} \right) \right. \right. }\\

其中,{P \left( x\mathop{​{}}\nolimits_{​{i}} \right) }\\表示变量

  • 0
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值