信息量,熵,联合熵,互信息,条件熵,相对熵(KL散度),交叉熵(cross entropy)
1.信息量
含义:对信息的度量。概率越小,信息量越大。
公式:h(xi)=−log2p(xi)h(x_i)=-log_2p(x_i)h(xi)=−log2p(xi)
或者h(xi)=log21p(xi)h(x_i)=log_2\frac{1}{p(x_i)}h(xi)=log2p(xi)1
p(xi)p(x_i)p(xi)为事件xix_ixi发生的概率大小,一般所用底数为2。
根...
原创
2019-06-12 18:07:17 ·
2158 阅读 ·
1 评论