如果随机变量X的概率密度函数为p(x),那么X的熵定义为
随机变量X的熵为表示这个随机变量所需要的平均比特数的一个下界。
对于服从联合分布为的一对离散随机变量,其联合熵定义为
设X和Y是两个随机变量,由另一个随机变量导致的原随机变量不确定度的缩减量称为互信息。
当X和Y相互独立时
因此
互信息实际上是相对熵的特殊特殊情形。相对熵是两个概率密度函数p和q之间的“距离”度量,定义为
如果随机变量X的概率密度函数为p(x),那么X的熵定义为
随机变量X的熵为表示这个随机变量所需要的平均比特数的一个下界。
对于服从联合分布为的一对离散随机变量,其联合熵定义为
设X和Y是两个随机变量,由另一个随机变量导致的原随机变量不确定度的缩减量称为互信息。
当X和Y相互独立时
因此
互信息实际上是相对熵的特殊特殊情形。相对熵是两个概率密度函数p和q之间的“距离”度量,定义为