深度学习 二分类 损失函数_深度理解机器学习中常见损失函数

本文深入探讨了机器学习中的几种关键损失函数,包括均方差损失(MSE)、平均绝对误差损失(MAE)、Huber Loss和交叉熵损失。在二分类问题中,交叉熵损失被广泛使用,其损失值随着误差增加呈指数级增长。MSE和MAE在回归任务中有不同应用,MSE收敛快但对异常值敏感,而MAE对异常值有更强的鲁棒性。Huber Loss综合了两者的优点。文章还从信息论角度解释了交叉熵损失的原理。
摘要由CSDN通过智能技术生成

91d2d97a1011ef05269f23ad58531e8a.png

【!!!建议收藏!!!】

1. 机器学习

  • What

机器学习之监督学习的本质可以简单地理解为:给定一系列的训练样本

,然后学习一个从
的映射函数
,使得对于给定的
,可以得到一个最大程度上接近其真实标签(值)
的输出
  • How

如何学习这个最大程度上接近真实分布

的映射函数
呢?损失函数就是这个“学习过程中”最关键的组成部分(目标),用来衡量学习的模型的输出
与真实的
之间的距离,给模型的优化过程指明方向。

2. 损失函数

2.1 均方差损失函数

均方差损失函数(Mean Squared Error Loss,简记为MSE)是机器学习之回归任务中最常用的一种损失函数,也称为

损失,其基本形式如下所示。

  • MSE背后的假设

假设模型预测值与真实值之间的误差服从标准高斯分布

,那么给定一个
,模型输出真实值
的概率如下所示。

进一步,我们再假设数据集中N个样本点服从独立同分布,那么给定所有

,模型输出真实值
的概率即最大似然(Likelihood)为所有
的累乘,如下
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值