为什么多分类使用交叉熵而不是均方差作为损失函数

首先,需要明确一点:
多分类时,目前我们使用交叉熵

原因:想要预测分类结果正确,不需要预测概率完全等于标签概率。但使用均方差时,预测过于严格。因此需要使用更适合衡量两个概率分布差异的测量函数,其中交叉熵是常用的方法。

我制作了部分对比的图片,看这个视频应该对理解有帮助。
每幅图上的曲线,显示了随着预测准确率的提高,交叉熵损失和均方差损失的变化情况。
其中横坐标为准确率,范围在0到1之间,纵坐标为损失。

对比的类别数范围在[2, 100],每个类别使用的样本量是1000组。

可以发现,随着预测的类别增多,完全预测正确和完全预测错误时两者损失之差,交叉熵损失在增大,均方差损失在减小。
即:预测多个类别时,交叉熵比均方差更容易将不同类别区分开。

代码见github:https://github.com/helindemeng/Compare-CrossEntrop-MSE.git

视频地址:

多分类时交叉熵损失函数为什么比均方差损失函数好


部分类别:

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值