《数学之美》——第六章 个人笔记

本文是《数学之美》第六章的个人笔记,主要探讨信息的度量和作用。内容包括信息熵的概念,它是不确定性度量的指标,重复内容的熵较小。信息的作用在于消除不确定性,条件熵揭示了模型复杂度如何降低不确定性。此外,介绍了互信息,用于衡量两个随机事件的关联,并延伸讨论了相对熵(交叉熵)作为衡量概率分布差异的工具。
摘要由CSDN通过智能技术生成

                                           数学之美

最近在读《数学之美》这本书,做一下个人笔记。看的是PDF,看完后会买一本的哦!版权意识还是有的。

ps:图片文字都是这本书中的内容,侵权立删。会有点自己的理解。

第六章     信息的度量和作用

1    信息熵

从一个角度可以认为信息量就等于不确定性的多少。

信息熵(Entropy),一般用符号H表示,单位是比特。

熵的定义:


变量的不确定性越大,熵也就越大。

文中有个关于冗余度的:重复的内容很多,信息量就小,冗

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值