信息量:事件携带信息的多少。事件发生概率越大,信息量就越小
熵:信息量的期望,反应事件的不确定度。所有取值可能性相等时,此时没有先验知识,不确定度最大,为1
相对熵(KL散度):两个随机分布
p
,
q
p,q
p,q间的距离度量,反映任意两个概率分布间的差异
交叉熵:在相对熵的基础上增加了真实分布的熵,反映计算概率分布与真实概率分布间的差异
06-08
5万+
01-18
1146