信息理论-信源及信源熵

1.1信源和信源的不确定性
信源发出消息,经过信道到达信宿,信宿收到消息,获得了信息,这个过程就称作通信。

  • 1.1不确定性的概念
    (1)离散信源:若一类信源输出的消息常常是以一个个符号的形式的出现,符号的取值是离散可数的,这样的信源称为离散信源。
    (2)消息是以一定的概率出现的,所以可以采用概率空间来描述。
    信源的不确定程度与概率空间的消息数和消息的概率分布有关。
    信源的消息为等概率分布时,不确定程度最大
    信源的消息为等概率分布,且其消息数目越多,其不确定程度越大。
    只发送一个消息的信源,其不确定程度为0,不发送任何信息

    1.1.2 信源不确定度的定义
    概率倒数的对数来度量信源的不确定度,即:
    H(X)=log(1/p)=-log p
    I(xi)=logp(xi) 表示信源输出一个消息 xi 所提供的信息量
    1.1.3 信息度量

    • 自信息量

         $I(x_{i})=-log p(x_{i})$
      
    • 联合信息量
      I(xiyi)=log2p(xiyi)
    • 互信息量
      I(信息量)=不肯定程度的减小量
      xiyi
      I(yi;xi)=log2p(yi/xi)p(yj)=I(yj)I(yj/xi) (i=1,2….n;j=1,2…m)

1.2、信息熵
信息熵是平均信息量的测度指标。如果某输入变量只有一个取值,也就是所有样本在该变量上去相同的值,没有差异,那么这个输入变量事实上并没用给输入变量的分类预测带来任何有意义的信息,可认为它所提供的信息量是0.因此,信息量的多少代表了变量取值差异的程度,信息熵是分类型变量取值差异性的测度指标。
计算公式:
h(x)=E[I(xi)]=E[log21p(xi)]=Ni=1P(xi)log2p(xi)(i=1,2,3....n)
1.3 平均互信息量
I(X;Y)=ni=1mj=1P(xiyj)I(xi;yj)=ni=1mj=1P(xiyj)log2p(xi/yj)p(xi)=ni=1mj=1P(xiyj)log2p(xiyj)p(xi)p(yj)
I(X;Y)=ni=1mj=1P(xiyj)log2p(xiyj)p(xi)p(yj)=ni=1mj=1p(xiyj)log21p(xi)ni=1mj=1p(xiyj)log21p(xi/yj) =H(X)-H(X/Y)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值