深度学习 自信息、熵、交叉熵

自信息:一个随机事件所包含的信息量

一个随机事件发生的概率越高,其自信息越低.必然事件自信息为0

对于一个随机变量 𝑋(取值集合为 𝒳,概率分布为 𝑝(𝑥), 𝑥 ∈ 𝒳)

当 𝑋 = 𝑥 时的自信息𝐼(𝑥)定义为: 𝐼(𝑥) = − log 𝑝(𝑥)

熵(entropy):无损编码事件信息的最小平均编码长度

熵为自信息的数学期望

也可用来衡量随机事件的不确定性,如下例兔的熵大于猫的(编码长度:3 > 1)

对每个可能性事件进行编码,计算他们的编码长度,最短的为熵

类似哈夫曼树,编码不能有二义性:

        例:四种事件的编码分别为 10、11、 1、110,前两种编码和后两种编码都可组成1110的编码段

编码方式 猫(50%)
  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值