信息论基础学习笔记(1)

本文介绍了信息论的基础概念,包括自信息、信息熵和互信息。自信息是确定随机变量特定值所需的信息量,信息熵是随机变量不确定性度量,而互信息则衡量两个随机变量之间的关联程度。通过对这些概念的深入探讨,揭示了信息论在处理不确定性问题中的核心作用。
摘要由CSDN通过智能技术生成

信息论基础 学习笔记(1)

前提

信息论主要的研究对象是关于随机变量的信息熵和信道。这里面假设了几点:

  1. 存在信息量,它只与随机变量的概率分布有关,满足可加性等性质
  2. 信道的本质是密度转移矩阵

这里的信息与0或1出现的顺序无关,只与一列01序列中的概率有关。我们首先定义1比特(bit)(其实信息无关01序列,其他的也可以,这里仅是举例)
1 b i t 的 信 息 量 : = 区 分 一 枚 均 匀 的 硬 币 是 正 是 反 所 需 要 的 信 息 量 1 bit的信息量 := 区分一枚均匀的硬币是正是反所需要的信息量 1bit:=
这其实是一种形象的说法,而且是一种自证,并不严格。但是易于理解。

自信息

接下来我们定义 自信息 (self-information),这其实是非常重要的概念,却常常不被重视。
I p ( X = x i ) = log ⁡ 1 p ( X = x i ) I_p(X=x_i)=\log\frac{1}{p(X=x_i)} Ip(X=xi)=logp(X=xi)1
其中,X为随机变量,x_i为随机变量的某个取值,常常x_i为0或1. I的下表表达的是X的概率分布按照 X ∼ p ( X ) X\sim p(X) Xp(X) 的方式分布的。I 表示的是自信息,意思是一个变量的值先验就是x_i,但是我们不知道,我们知道的是它出现的概率为 p ( X = x i ) p(X=x_i) p(X=xi), 此时需要识别出它所需要的信息量就是如上表达的自信息。同样的我们可以定义联合自信息:
I p ( X = x i , Y = y j ) = log ⁡ 1 p ( X = x i , Y = y j ) I_p(X=x_i,Y=y_j)=\log\frac{1}{p(X=x_i,Y=y_j)} Ip(X=xi,Y=yj)=logp(X=xi,Y=yj)1
如果X与Y独立,则:
I p ( X = x i , Y = y j ) = log ⁡ 1 p ( X = x i ) + log ⁡ 1 p ( X = y i ) = I p ( X = x i ) + I p ( Y = y j ) \begin{aligned} I_p(X=x_i,Y=y_j)&=\log\frac{1}{p(X=x_i)}+\log\frac{1}{p(X=y_i)}\\ &=I_p(X=x_i)+I_p(Y=y_j) \end{aligned} Ip(X=xi,Y=yj)=logp(X=xi)1+logp(X=yi)1=Ip(X=xi)+Ip(

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值