通信入门系列——信息论之信息熵、联合熵、条件熵、互信息量

微信公众号上线,搜索公众号小灰灰的FPGA,关注可获取相关源码,定期更新有关FPGA的项目以及开源项目源码,包括但不限于各类检测芯片驱动、低速接口驱动、高速接口驱动、数据信号处理、图像处理以及AXI总线等
在这里插入图片描述
本节目录

一、信息论创始人——香农
二、信息和比特
三、信息熵
四、联合熵
五、条件熵
六、互信息量

本节内容
一、信息论创始人——香农
信息论创始人——香农,全称为克劳德·艾尔伍德·香农,美国数学家。1948年,香农发表了“A Mathematical Theory of Communication”即通信的数学原理,标志了信息论的诞生,在论文中定义了信息的度量单位比特、信息熵和信息容量,并证明了AWGN信道的信道容量为C=Blog(1+S/N),至今还指引着信息产业的发展。
二、信息和比特
香农定义了比特作为信息的度量单位。通常,在计算机领域所说的CPU是32bit或者64bit,和此处比特是一个意思。
香农中是如何定义信息的?
一个随机时间发生的概率是p,对应的自信息为I=-log§。概率p是一个小于1的数,取对数为负,再加上一个负号就变成了整数,若以2为底,信息I的单位就是bit。
插入一点,如果随机变量是离散的,那么p表示的是概率,如果随机变量是连续的,那么p表示的概率密度。
三、信息熵
无记忆信源,指的时当前事件发生的概率,与上一个事件没有关系。离散无记忆信源,用一个集合表示,集合当中的每个元素都是事件,每个事件都有一个发生的概率。将一个离散无记忆信源表达成一个概率分布的集合,即{p1,p2,……,pN}。
对于离散无记忆的信源,用信息论的知识来描述,就是常说的信息熵,简称熵entropy,表达式如下:
在这里插入图片描述

其中,-log(pi)表示每个事件的自信息,自信息乘以概率后求和,就是平均。可以将熵理解为信源当中所有事件的自信息的平均值,反映了一个信源整体的不确定度。在等概率分布,也就是p1=p2=……=pN=1/N时候,熵达到最大值。
四、联合熵
联合熵,可以直接从熵的定义来理解,描述的是(X,Y)联合信源的不确定度,其对应的表达式为:
在这里插入图片描述

五、条件熵
条件熵描述的是以某个事件为条件是,X的不确定度。若这个事件是一个具体的时间,可以用下述表达式来表达,其中随机变量Y=y时,X的不确定度为:
在这里插入图片描述

若Y是一个随机变量,对H(X|Y=y)取统计平均,得到的是在Y发生的总体条件下的X的不确定度,也就是所谓的条件熵:
在这里插入图片描述

若随机变量X、Y相互独立,则满足下述关系式:①H(X|Y)=H(X);②H(X,Y)=H(X)+H(Y)。同时,联合熵与条件熵满足H(X,Y)=H(X)+H(Y|X)。
六、互信息量
离散随机变量X,Y,其互信息I(X;Y)定义为:
在这里插入图片描述

常用的关系等式:
①I(X;Y)=I(Y;X);
②I(X;Y)=H(X)-H(X|Y);
③I(X;Y)=H(Y)-H(Y|X)。
其中H(X)是X的不确定度,H(X|Y)是以Y为条件的X的不确定度,H(Y)是Y的不确定度,H(Y|X)是以X为条件的Y的不确定度。
其中信息熵与互信息量的关系图如下:
在这里插入图片描述

  • 4
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: 互信息是一种度量两个变量之间的相依赖关系的统计学概念。它可以用来度量一个变量(例如A)对另一个变量(例如B)的信息量,或者变量A中存在的独立信息量。与条件熵之间的差异在于,互信息度量的是变量之间的相依赖性,而条件熵度量的是一个变量的不确定性以及另一个变量的信息量,而度量的是一个变量的不确定性。 ### 回答2: 互信息是用来衡量两个随机变量之间的相关性的度量方式。它通过比较两个随机变量在一起出现的概率与它们分别独立出现的概率之间的差距来评估它们之间的信息关联程度。 互信息条件熵之间有密切的关系。条件熵是指在给定一个随机变量的条件下,另一个随机变量的不确定性或信息量的度量。而互信息则是衡量两个随机变量之间相传递的信息量。 具体来说,两个随机变量的互信息等于它们的条件熵之和减去它们的联合。如果两个随机变量相独立,则它们之间的互信息为0,表示它们之间没有信息的传递。而当互信息大于0时,表示它们之间存在相关性,其中互信息的值越大,表示它们之间的相关性越强。 此外,条件熵互信息还满足一个关系,即条件熵等于联合减去给定条件下的互信息。这个关系可以用以下公式表示:条件熵(X|Y) = (X) - 互信息(X;Y)。 综上所述,互信息条件熵之间相关联,它们分别从不同角度给出了评估变量之间相关性和不确定性的度量方式,通过它们的计算可以更好地理解和分析数据中的关联关系和信息量。 ### 回答3: 互信息信息论中的一个概念,用于衡量两个随机变量之间的相关程度。在信息论中,是用来度量一个随机变量的不确定性,而互信息则用来度量两个随机变量之间的相关性或者共同信息量互信息可以通过计算两个随机变量的联合概率分布和各自的边缘概率分布之间的差异来得到。具体而言,互信息可以表示为两个随机变量X和Y的联合概率分布和各自的边缘概率分布的比值的自然对数。 条件熵是已知一个随机变量X的取值的情况下,另一个随机变量Y的不确定性。它可以通过计算在给定X的条件下Y的条件概率分布的来得到。 互信息条件熵之间存在以下关系:互信息等于X的减去在给定X的条件下Y的条件熵。这可以表示为I(X,Y) = H(X) - H(Y|X),其中I(X,Y)表示X和Y的互信息,H(X)表示X的,H(Y|X)表示在给定X的条件下Y的条件熵。 如果X和Y是独立的随机变量,那么它们之间的互信息为0,即I(X,Y) = 0。而当X和Y相依赖时,互信息大于0,表示它们之间存在相关性或者共同的信息量。 总结起来,互信息是衡量两个随机变量之间相关程度的指标,通过计算两个随机变量的联合概率分布和边缘概率分布之间的差异得到。互信息条件熵之间存在一定的关系,可以通过互信息条件熵的计算公式相表示。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小灰灰的FPGA

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值