交叉熵(Cross Entropy)

交叉熵应用到机器学习问题的简要介绍

   交叉熵可以用于定义机器学习问题和最优化问题的损失函数。我们可以假定,真实标签中正类别的概率为 pi ,而当前训练出的模型的预测值是正类别的概率是 qi ,这样我们可以通过交叉熵计算 pi qi 的相似度,然后对模型进行进一步的优化。
   使用一个更加具体的例子,我们使用逻辑回归(logistic regression)作为处理二分类问题的模型,定义两个类别分别为 0 1 。这样的话,我们可以将结果的概率模型定义为 g(z)=1/(1+ez) 。当我们要计算 y=1 的概率的时候,我们通过以下公式进行计算:

qy=1=y^g(wx)=1/(1+ewx)
这里,权重向量 w 是通过梯度下降等优化算法计算出来的。相同的, y=0 的互补概率可以简单地表示为:
qy=0=1y^
上述的两个公式表示的是当前模型预测值的概率分布。
   对于数据的真实概率分布,我们可以表达为: py=1=y py=0=1y
   综合上述的概率表达,我们可以将真实概率表达为 p{y,1y} ,并且将预测概率表达为 q{y^,1y^} 。这样的话,我们可以通过交叉熵来测量 p q 之间的相似度:
H(p,q)=ipilogqi=ylogy^(1y)log(1y^)
这个公式其实就是在逻辑回归中计算某个数据样本的损失的表达式,要想计算整个模型的损失,我们只需要计算所有数据样本的损失的平均值即可:
L(w)=1Nn=1NH(pn,qn)=1Nn=1N[ynlogy^n+(1yn)log(1y^n)]
这里 y^ng(wxn)=11+ewxn g(z) 就是逻辑函数。

参考资料

交叉熵-维基百科 https://en.wikipedia.org/wiki/Cross_entropy

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值