什么是熵(entropy)?
熵是一种度量,可以用熵的大小度量信息的混乱程度,或者是信息的不确定性。熵越大,信息的不确定性越大。同样,熵也可以用来衡量变量的不确定性。
熵也可以衡量一件事的信息量的大小,因为一件事确定性越大,那它的信息量就越小;反之,一件事不确定性越大它得信息量就越大。比如,“中国乒乓球队再次得了世界冠军”,这件事确定性很大,所以包含的信息量就很小,甚至信息量接近0(等于没说一样);“2020年疫情会复发”,这件事信息量就很大,因为不确定性很大。所以熵也可以用来衡量信息量的大小,熵越大信息量越大,熵越小信息量越小。
相互独立的两件事信息量是叠加的,因此熵也是叠加的。“今天中国排球队夺冠”,“今天中国乒乓球队夺冠”,这两件事的信息量就是叠加的,熵自然也是叠加的。
假设一个随机变量X有n个取值,x取每个值的情况自然是相互独立的,所以x熵就是将各个取值的熵叠加起来。
熵的定义
假设随机变量X的概率分布是:
,