在理解熵之前,我们先来理解下自信息 I
自信息:即事件x发生后所含的信息量,或者事件发生前的不确定性。一个事件的自信息越大,其发生后所携带的信息量越大 或 发生前 其不确定性越大,也就是说该事件发生概率越小。 一般将事件x自信息定义为 log(1/P(x))
熵:即总体事件的平均信息量,即自信息的数学期望,
在理解熵之前,我们先来理解下自信息 I
自信息:即事件x发生后所含的信息量,或者事件发生前的不确定性。一个事件的自信息越大,其发生后所携带的信息量越大 或 发生前 其不确定性越大,也就是说该事件发生概率越小。 一般将事件x自信息定义为 log(1/P(x))
熵:即总体事件的平均信息量,即自信息的数学期望,