信息论及其若干结论和部分证明过程

本文介绍了信息论的基本概念,包括熵作为数据混乱程度的度量,联合熵和条件熵的定义,以及互信息和相对熵在衡量分布相似度中的应用。重点阐述了熵的概念,以及一些基本定理的证明简介,如KL距离的性质和高斯分布熵的最大化。信息论在机器学习和模式识别等领域有着重要应用。
摘要由CSDN通过智能技术生成

首先在介绍信息论之前,有必要提一下信息论之父,克劳德·艾尔伍德·香农(Claude Elwood Shannon,1916年4月30日-2001年2月26日)。他是美国著名的数学家、电子工程师、密码学家。1948年,香农发表了划时代的论文-《A Mathematical Theory of Communication》,奠定了现代信息论的基础。

引言

问题:给定两个离散分布,如何衡量他们之间的相似度?连续的随机变量,又如何衡量相似度?
答:信息论!
下面介绍信息论的一些基本概念。

熵,Entropy,在化学和热力学中是用来描述系统的混乱程度的量。香农巧妙的将其用于信息论,表示数据的混论程度。假设X是离散的随机变量,它的概率质量函数(p.m.f)p(X=si)=ai。那么随机变量X的熵定义如下:

H(X)=xp(x)log2p(x)

此处熵的单位叫做比特bit。很显然,当X服从0-1分布时,H(X)=0;当X服从离散均匀分布时,
H(X)=log2m

其中m为X的不同取值个数。当然,如果X是连续随机变量的话,我们就需要使用积分来替换求和。定义如下:
h(X)=xp(x)lnp(
  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值