信息熵原理及实现

理论:

通过信息论的学习,可知如果信息的随机性越大,那么把它确定下来的价值也越大,信息论通过定义一种定量的学习方法“熵”来比较任意两个随机变量的信息价值

离散变量的熵定义:

连续变量的熵定义:

假设有一枚硬币,正面朝上的概率为p,反面朝上的概率为1-p,所以问题的信息熵公式

例子实现:

  1. # encoding=utf-8  
  2.   
  3. import numpy as np  
  4. import matplotlib.pyplot as plt  
  5.   
  6. p = np.linspace(0,1,100)  
  7. entropy = -p*np.log2(p)-(1-p)*np.log2(1-p)  
  8. plt.plot(p,entropy)  
  9. plt.xlabel('p(x)')  
  10. plt.ylabel('entropy')  
  11. plt.show() 
  12. 当概率p=0.5时,此问题的信息熵最大,也就是当概率等于0.5时,相比概率等于其它值时,更能引起人们兴趣,带来惊喜度
  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值