信息量,熵,联合熵,互信息,条件熵,相对熵(KL散度),交叉熵(cross entropy)
1.信息量含义:对信息的度量。概率越小,信息量越大。公式:h(xi)=−log2p(xi)h(x_i)=-log_2p(x_i)h(xi)=−log2p(xi)或者h(xi)=log21p(xi)h(x_i)=log_2\frac{1}{p(x_i)}h(xi)=log2p(xi)1p(xi)p(x_i)p(xi)为事件xix_ixi发生的概率大小,一般所用底数为2。根...
原创
2019-06-12 18:07:17 ·
2187 阅读 ·
1 评论