直观理解-信息熵&KL Divergence

本文深入探讨信息熵的概念,包括其基本内容、离散信源的特性,并通过直观例子进行解释。接着介绍了熵率及其重要定理,以及谱熵在信号分析中的应用。此外,还详细阐述了KL散度,作为衡量两个概率分布差异的指标,其定义、性质及在信息损失评估中的作用。
摘要由CSDN通过智能技术生成

信息熵

简介

任何信息都存在冗余,冗余大小与信息中每个符号的出现概率或者说不确定性有关。

信息熵用于解决对信息的量化度量问题,描述信源的不确定度。

香农第一次用数学语言阐明了概率与信息冗余度的关系。

基本内容

通常一个信源发送出什么符号是不确定的,衡量它可以根据其出现的概率来度量,概率大,出现的机会多,不确定性小;反之不确定性大

不确定函数f应该

1、满足概率P的减函数。

2、两个独立符号所产生的不确定性应该等于各个不确定性之和,即f(P1,P2)=f(P1)+f(P2),这称为可加性。

同时满足这两个条件的函数f为对数函数。

 
12738065-f4275da08904c7ee.png
 

eg.

 

 
12738065-1e7c33466f0cd7b4.png
image-20191129111408258.png

 

由例子:

  • 当未接收到任何信息时,信息的不确定度为log(1/(1/8))=3bits

  • 当收到一个0时候,已经确定了一个bit,那么只有可能在x1~x4中,此时不确定性变为log(1/(1/4))=2bits。3-2正好为1bit。

  • 依此类推,当收到011时,已经可以完全确定为x4,此时信息的不确定性为0。

所以获取信息就是我们消除不确定性。

在信源中,考虑的不是某一个单一符号发生的不确定性,而是考虑这个信源所有可能发生情况的平均不确定性。若信源符号有n种取值:U1,U2,U3……Un对应概率为:P1,P2,P3……Pn,各种符号出现彼此独立。这时信源的平均不确定性应当为单个符号不确定性的统计平均值E,则称为信息熵

 
  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值