《数学之美(第一版)》笔记 —— 第6章

本文介绍了信息论中的关键概念,包括信息熵、条件熵、互信息和相对熵(KL散度)。信息熵用于衡量不确定性的大小,条件熵在已知相关信息时减少不确定性。互信息量化了两个随机事件的相关性,而KL散度则衡量了两个分布的差异。此外,还探讨了交叉熵与KL散度的关系。
摘要由CSDN通过智能技术生成

第6章 信息的度量和作用

信息熵(Entropy)
  • 背景:

    • 信息量等于不确定性的多少
    • 可以用bit这个概念来衡量信息量(所以加上了log函数)
  • 信息熵公式:
    在这里插入图片描述其中 P ( x ) P(x) P(x)是x发生的可能性。变量的不确定性越大,熵也就越大。

    • 信息熵的取值范围是: [ 0 , l o g 2 ( n ) ] [0, log_2(n)] [0,log2(n)] ,其中n代表分类的数目。其推导过程可以参考:https://blog.csdn.net/sinat_26811377/article/details/101992352 (非常简洁易懂,建议阅读)
  • 信息熵的作用:

    • 衡量信息量(不确定性)
    • 几 乎 所 有 的 自 然 语 言 处 理 、 信息 与 信 号 处 理 的
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值