分类问题可以使用MSE(均方误差)作为损失函数吗

一、. 从损失函数公式本身来说

1. 从损失函数公式的物理含义来说

MSE衡量的是预测值和目标值的欧式距离。
而交叉熵是一个信息论的概念,交叉熵能够衡量同一个随机变量中的两个不同概率分布的差异程度,在机器学习中就表示为真实概率分布与预测概率分布之间的差异。交叉熵的值越小,模型预测效果就越好。
所以交叉熵本质上是概率问题,表征真实概率分布与预测概率分布差异,和几何上的欧氏距离无关,在回归中才有欧氏距离的说法,

而在分类问题中label的值大小在欧氏空间中是没有意义的。所以分类问题不能用mse作为损失函数。

2. 强行使用的话,可能带来的后果

MSE(均方误差)对于每一个输出的结果都非常看重(让正确分类变大的同时,也让错误分类变得平均),而交叉熵只对正确分类的结果看重。
例如:在一个三分类模型中,模型的输出结果为(a,b,c),而真实的输出结果为(1,0,0),那么MSE与cross-entropy相对应的损失函数的值如下:
MSE:
在这里插入图片描述
cross-entropy:
在这里插入图片描述

从上述的公式可以看出,交叉熵的损失函数只和分类正确的预测结果有关系,而MSE的损失函数还和错误的分类有关系,该分类函数除了让正确的分类尽量变大,还会让错误的分类变得平均,但实际在分类问题中这个调整是没有必要的。但是对于回归问题来说,这样的考虑就显得很重要了。所以,回归问题熵使用交叉上并不合适。

二、从优化求解角度来说

1. 非凸有多个极值点,不合适做损失函数

分类问题是逻辑回归,必须有激活函数这个非线性单元在,比如sigmoid(也可以是其他非线性激活函数),而如果还用mse做损失函数的话:
在这里插入图片描述
mse已经是非凸函数了,有多个极值点,所以不适用做损失函数了。

2.求解过程中可能梯度消失(不是主要原因)

mse作为损失函数,求导的时候都会有对激活函数的求导连乘运算,对于sigmoid、tanh,有很大区域导数为0的。
在这里插入图片描述
该激活函数的输入很可能直接就在平坦区域,那么导数就几乎是0,梯度就几乎不会被反向传递,梯度直接消失了。所以mse做损失函数的时候最后一层不能用sigmoid做激活函数,其他层可以用sigmoid做激活函数。
在这里插入图片描述
当然,用其他损失函数只能保证在第一步不会直接死掉,反向传播如果激活函数和归一化做得不好,同样会梯度消失。所以从梯度这个原因说mse不好不是很正确。

 

  • 19
    点赞
  • 35
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
均方误差MSE)是一种常用的损失函数,用于衡量模型预测值与实际值之间的平均平方误差。在回归任务中,我们通常希望模型的预测值尽可能接近真实值,因此可以使用MSE作为优化目标来训练模型。 具体地,MSE的计算方法是将模型的预测值与真实值之差取平方,然后求平均。这样做的好处是对预测值与真实值的差异进行了放大,较大的差异会对损失函数的值产生更大的影响,从而使得模型更加关注较大误差的样本。 MSE损失函数的优点是简单且易于理解和计算。另外,它对异常值有较好的容忍性,因为平方操作使得较大的误差对损失函数的值产生更大的影响。然而,MSE也存在一些缺点,比如对离群点敏感,并且在梯度下降中可能导致收敛速度较慢。 总结而言,均方误差作为损失函数在回归任务中被广泛应用,它通过衡量模型预测值与实际值之间的平均平方误差来指导模型的训练和优化。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [Pytorch十九种损失函数使用详解](https://download.csdn.net/download/weixin_38665944/13739841)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] - *2* [均方误差(Mean Squared Error,MSE)](https://blog.csdn.net/weixin_50752408/article/details/129557320)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] - *3* [【线性回归:为什么损失函数使用均方误差】](https://blog.csdn.net/weixin_40012554/article/details/122114748)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值