交叉熵损失函数VS均方差损失函数

均方差损失函数和交叉熵损失函数是比较常用的损失函数

分类中常用交叉熵?

MSE

均方误差损失也是一种比较常见的损失函数,其定义为:在这里插入图片描述

Cross Entropy Loss Function

二分类

在二分的情况下,模型最后需要预测的结果只有两种情况,对于每个类别我们的预测得到的概率为P和 1-P ,此时表达式为:
在这里插入图片描述

其中:
yi—— 表示样本i的label,正类为 1,负类为0
pi—— 表示样本i预测为正类的概率

多分类

多分类的情况实际上就是对二分类的扩展:
在这里插入图片描述

其中:
M——类别的数量
yic——符号函数(0或者1),如果样本 i的真实类别等于C取1 ,否则取0
pic——观测样本 i属于类别C的预测概率

计算流程

在这里插入图片描述

MSE

在这里插入图片描述

交叉熵

在这里插入图片描述

使用交叉熵的原因

交叉熵

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

结论:

在用梯度下降法做参数更新的时候,模型学习的速度取决于两个值:一、学习率;二、偏导值。其中,学习率是我们需要设置的超参数,所以我们重点关注偏导值。从上面的式子中,我们发现,偏导值的大小取决于x 和 sigmod值与y的差 ,我们重点关注后者,后者的大小值反映了我们模型的错误程度,该值越大,说明模型效果越差,但是该值越大同时也会使得偏导值越大,从而模型学习速度更快。所以,使用逻辑函数得到概率,并结合交叉熵当损失函数时,在模型效果差的时候学习速度比较快,在模型效果好的时候学习速度变慢。

MSE

在这里插入图片描述

参考飞鱼

交叉损失函数的由来

在这里插入图片描述
在这里插入图片描述
利用相对熵来比较两个分布的差异性,所以可以用来比较预测和真实值的差异性,上公式中的P代表着真实值,q代表着预测值
在这里插入图片描述
其中P的熵是一个定值 要想预测与真实差异小 相对熵需要越小 所以交叉熵需要越小 推出利用交叉熵来代表模型的损失
在这里插入图片描述

  • 5
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值