交叉熵理论
交叉熵与熵相对,如同协方差与方差。
熵考察的是单个的信息(分布)的期望:
H(p)=−∑i=1np(xi)logp(xi)
交叉熵考察的是两个的信息(分布)的期望:
H(p,q)=−∑i=1np(xi)logq(xi)
如果有两个离散分布p(0)=1/2,p(1)=1/2,q(0)=1/3,q(1)=2/3,则Cross-Entropy(p,q)的值为:log(3)-1/2log(2)
交叉熵与熵相对,如同协方差与方差。
熵考察的是单个的信息(分布)的期望:
交叉熵考察的是两个的信息(分布)的期望:
如果有两个离散分布p(0)=1/2,p(1)=1/2,q(0)=1/3,q(1)=2/3,则Cross-Entropy(p,q)的值为:log(3)-1/2log(2)