数学之美
最近在读《数学之美》这本书,做一下个人笔记。看的是PDF,看完后会买一本的哦!版权意识还是有的。
ps:图片文字都是这本书中的内容,侵权立删。会有点自己的理解。
第六章 信息的度量和作用
1 信息熵
从一个角度可以认为信息量就等于不确定性的多少。
信息熵(Entropy),一般用符号H表示,单位是比特。
熵的定义:
变量的不确定性越大,熵也就越大。
文中有个关于冗余度的:重复的内容很多,信息量就小,冗
数学之美
最近在读《数学之美》这本书,做一下个人笔记。看的是PDF,看完后会买一本的哦!版权意识还是有的。
ps:图片文字都是这本书中的内容,侵权立删。会有点自己的理解。
从一个角度可以认为信息量就等于不确定性的多少。
信息熵(Entropy),一般用符号H表示,单位是比特。
熵的定义:
变量的不确定性越大,熵也就越大。
文中有个关于冗余度的:重复的内容很多,信息量就小,冗