非香农类信息不等式_信息量、熵 、交叉熵与softmax、KL散度

本文探讨了信息理论中的关键概念,包括信息量、熵的定义和计算,强调了熵作为信息期望的重要性。进一步讲解了相对熵(KL散度)和交叉熵,解释了它们在衡量概率分布差异中的作用,并在机器学习中作为损失函数的应用。最后,提到了softmax交叉熵损失函数与温度参数的影响。
摘要由CSDN通过智能技术生成
  1. 信息:用来表征 消除 消息不确定性的物理量
  2. 信息量: 随事件发生概率 单调递减,
  3. :信息量的期望

昨天下雨这个事件,因为已知,那么它的信息量就为0。

明天会下雨这个事件,因为未知,那么这个事件的信息量就大。

事件发生的概率越小,(但对其进行预测,那么)其信息量越大。

比如,你告诉我,赛马中哪匹是第一,信息量很大(有价值)。告诉我明天太阳会升起,信息量很小(说了等于没说)

忆臻:通俗理解信息熵​zhuanlan.zhihu.com
ddb667ebb9aa7535118905960b482819.png

一个具体事件的信息量不能为负。

如果有俩不相关的事件x和y,那么观察到的俩个事件同时发生时 获得的信息应该等于 观察到的事件各自发生时 获得的信息之和,即:

h(x,y) = h(x) + h(y)

由于x,y是俩不相关的事件,那么满足p(x,y) = p(x)*p(y). (其实独立才能把概率拆开, 原文这里应该错了)

信息量公式如下:

(香农应该有严格推导)

(1)有一个负号: 确保信息非负

(2)底数为2: 对数的选择是任意的。我们只是遵循信息论的普遍传统,使用2作为对数的底!有看过用10的.

熵:信息量的期望

随机变量X的熵

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值