交叉熵与极大似然估计

转载自:https://zhuanlan.zhihu.com/p/37917476

在机器学习中常用到交叉熵损失函数,其来源于信息论,用以描述两个两个分布之间的差异。为便于理解,下面描述几个相关定义。

假设X为一个离散随机变量,则X=x0的自信息(可理解为X=x0发生所携带的信息)为:

[公式]

单自信息只处理单个输出,为描述整个概率分布的不确定性总量,我们定义熵:

[公式]

其表示遵循该分布的事件所产生的期望信息量总和(不确定性总量越大,则信息总量越大)。

假设对于同一随机变量X,我们有两个单独的概率分布P(X)和Q(x),现定义一个KL散度用以描述这两个分布之间的差异:

[公式]

KL散度是非负的,但其并非真正代表两个分布之间的距离,因为它不是对称的。和KL散度密切联系的是交叉熵:

[公式]

所以针对Q最小化交叉熵等价于最小化KL散度,因为Q不影响H(P)。若P(x)为数据原始分布,则使交叉熵最小的分布Q(x)即是与P(x)最接近的分布。


现考虑一个分布P(X),我们从中随机取一些样本 [公式] ,计算一个似然 [公式] ,则似然函数为: [公式]最大化似然函数即:

[公式]

[公式]

可以看到最小化交叉熵和最大似然函数的结果是一样的。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值