信息论基本概念

1、熵

               如果X是一个离散型随机变量,取值空间为R,其概率分布为p(x)=P(X=x),x∈R。那么,X的熵H(X)定义为式:

                                              

             熵又称为自信息,可以视为描述一个随机变量的不确定性的数量。它表示信源X每一个符号所提供的平均信息量。一个随机变量的熵越大,它的不确定性越大,那么,正确估计其值的可能性就越小。越不确定的随机变量越需要大的信息量用以确定其值。


2、联合熵

            如果X,Y是一对离散型变量X,Y~p(x,y),X,Y的联合熵,H(X,Y)定义为

                                                  

           联合熵是描述一对随机变量平均所需要的信息量


3、条件熵

            给定随机变量X的情况下,随机变量Y的条件熵H(Y|x)为

                                   

       将联合熵中的联合概率log(x,y)展开,可得

                                   

       一般得,有以下式成立:

                   


4、互信息

            1、根据熵的连锁规则,有     H(X,Y)=H(X)+H(Y|X)=H(Y)+H(X|Y)。 因此,   H(X)-H(X|Y)=H(Y)-H(Y|X)

               这个差叫做X和Y的互信息,记作 I(x;y)。或者定义为如果 (X,Y)~p(x,y),则X,Y之间的互信息 I(X;Y)=H(X)-H(X|Y)

         2、 I(X;Y)反映的是在知道了Y的值以后X的不确定性的减少量

         3、将定义中的H(X)和H(X|Y)展开,可得:

                              

          4、由于H(X|X)=0,因此,          H(X)=H(X)-H(X|X)=I(X;X)

                这说明了熵为什么又称为自信息,也说明了两个完全依赖的变量之间的互信息并不是一个常量,而是取决于它们的熵

          5、互信息体现了两变量之间的依赖成都,如果I(X;Y)>>0,表明X和Y是高度相关的; 

                如果I(X,Y)=0,表明X和Y是相互独立的;  如果I(X;Y)<<0,表明X和Yahi互不相关的分布

          6、同样,条件互信息和互信息的连锁规则:

                            


5、相对熵

           1、相对熵又称KL距离,是衡量相同事件空间里两个概率分布相对差距的测度。两个概率分布p(x)和q(x)的相对熵定义为:

                                 

               当两个随机分布完全相同时,即p=q,其相对熵为0。当两个随机分布的差别增加时,其相对熵期望值也增大。

         2、互信息实际上就是衡量一个联合分布与独立性差距多大的测度:

                                    

          3、可推导出条件相对熵和相对熵的连续规则:

                       


6、交叉熵

              1、交叉熵就是用来衡量估计模型与真实模型分布之间差异情况的。 

           2、如果一个随机变量X~p(x),q(x)为用于近似p(x)的概率分布,那么,随机变量和模型q之间的交叉熵定义为:

                                          

                  最后一步为用期望表示

  

                                     

   

  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 《信息论基础》是田宝玉教授主持编写的一本关于信息论基础的教材,主要包括信息论基本概念、信息量及其度量方法、离散信源和信源编码、信道容量和通信系统性能等基础知识。与其他信息论教材相比,这本教材注重理论与实际应用的结合,兼顾了基础理论的讲解和实际问题的运用。 该教材主要分为七个章节,第一章介绍了信息论基本概念和历史背景;第二章讲述了信息源和信息量的概念,并介绍了熵的概念及其度量方法;第三章详细讲述了离散信源和信源编码的方式;第四章介绍了信道模型、信道容量以及信道编码技术;第五章主要讨论了误差控制编码、信道编译码等相关内容;第六章介绍了包括多项式码、卷积码等在内的现代编码理论;最后一章则探讨了信源和信道联合编码的问题。 相比其他信息论教材,田宝玉编写的《信息论基础》更具有实用性,涉及了许多实际问题的解决方式,并深入探讨了现代通信系统的关键技术。对学习通信工程、信息工程等相关专业的学生而言,这本教材不仅能够帮助他们学习并掌握信息论的基本知识,还能够为他们在实践中应用所学知识提供重要的参考。 ### 回答2: 《信息论基础》是一本介绍信息理论基础知识的书,是在信息论研究领域尤为重要的基础教材之一。该书由田宝玉编写,详细阐述了信息量、信息熵、信源编码、信道编码、信道容量等重要概念以及它们在通信系统中的具体应用。该书内容系统,知识点清晰,对于读者理解信息论概念和应用有很大帮助。 首先,该书从信息的本质、表示方式、信息量等方面深入阐述了信息论的基础概念。尤其是在信息熵的概念和应用方面,作者用数学方法详细阐述了信息熵的计算方法和应用,通过实例和分析,让读者对信息熵有了更深刻的理解。其次,该书还介绍了信源编码和信道编码的知识,这是通信系统中不可或缺的重要环节。作者深入浅出地阐述了这些编码方法的基本原理和实现方法,使读者能够理解和应用这些技术。最后,该书还介绍了信道容量的概念和应用,以及对误差纠正和调制解调等方面的讲解。 总之,《信息论基础》为读者介绍了信息论基本概念和应用,让读者了解到信息论在通信系统中起到关键的作用。对于学习信息与通信领域的学者、工程师,以及研究信息处理的科技人员等都有着重要的参考和借鉴价值。 ### 回答3: 《信息论基础》是一本介绍信息论基本概念、理论及其应用的教材。本教材共分为六章,分别是信息的基本概念与表示、信息的度量、离散信源的编码、离散信道的传输、连续信源的压缩编码、连续信道的传输。本教材内容既有理论论述,又有实际应用,既有定量计算,也有对概念的解释和阐述。通过《信息论基础》的学习,读者可以掌握信息论基本概念,了解信息的度量方法,掌握离散和连续信源的编码方法以及离散和连续信道的传输方法,为理解信息传输和处理提供基础知识。此外,本教材的作者田宝玉教授是信息论和编码学的专家,具有丰富的教学经验,因此本教材的讲解深入浅出、生动易懂,是信息论初学者和从事相关工作的读者值得一读的教材。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值