损失函数相关(loss)

1、为什么分类用交叉熵而不用MSE(均方误差mean squared error --欧氏距离)

分类问题的目标变量是离散的,而回归是连续的数值。因此分类问题用 cross entropy,回归问题用 mean squared error。

分类问题总的来说,分类问题需要用 one hot 的形式计算个 label 的概率,然后用 argmax 来决定分类。计算概率的时候通常用 softmax。参考流程:计算 loss-> 计算 softmax->argmax。

       用 MSE 计算 loss 的问题在于,通过 Softmax 输出的曲线是波动的,有很多局部的极值点。 即,非凸优化问题 (non-convex),既然是非凸的问题,当然就谈不到用梯度下降法优化了。

     而 cross entropy 计算 loss,则依旧是一个凸优化问题,用梯度下降求解时,凸优化问题有很好的收敛特性。

公式推倒证明:https://blog.csdn.net/liuweiyuxiang/article/details/90707375

参考其他说法:https://www.zhihu.com/question/314185485/answer/613688732

2、损失函数正则项的本质是什么?

(正则化可以看做是损失函数的惩罚项。所谓『惩罚』是指对损失函数中的某些参数做一些限制。惩罚回归,约束极值,超参数不可求扔掉常数项.)

知乎上的解答:https://zhuanlan.zhihu.com/p/33568166

另一篇 https://www.cnblogs.com/PowerTransfer/p/8562547.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值