面试准备---- 交叉熵,相对熵(KL散度),softmax

1.信息熵

在信源中有n个独立取值的信号,每种信号出现的可能性分布为 p1,p2 ,…pn,且各个符号的出现相互独立,那么整体信源的不确定性为单个符号不确定性的统计平均值(单个信号不确定性为 log(1/p)) 称为信息熵 即 H(U) =E[- log( p )]=-∑ pi log(pi),当所有 pi 取值均相等 即 1/N 时 信息熵取到最大值

在这里插入图片描述
上图可见 当一件事情发生的概率越大的时候 其包含的信息量越小 混乱程度也就越小

2. 交叉熵

交叉熵主要用来度量两个概率分布的差异
假设我们具有两个分布 p,q 其中p为真实分布,q为预测分布

H(p,q)=-∑(pi log qi)(当i只有两类取值的时候 就变成了 -(yilog pi+(1-yi)log(1-pi))

3.K-L散度

对于同一个随机变量 具有两个不同的概率分布 P(x),Q(x),可以使用KL散度来度量这两个分布的差异 按照真实分布来衡量样本的信息熵 H§=-∑ p log§ ,如果使用错误分布来表示真实分布的平均编码长度为 H(p,q)=-∑(pi log qi)

在这里插入图片描述

https://blog.csdn.net/tsyccnh/article/details/79163834

https://www.zhihu.com/question/41252833

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值