损失函数
文章平均质量分 87
深度学习探索者
有事做,有人爱,有所期待
展开
-
【损失函数】深度学习回归任务中你必须了解的三种损失函数,绝对误差损失(L1 Loss、MAE)均方误差损失(L2 Loss、MSE)以及平滑L1损失(Huber Loss)(2024最新整理)
是预测值和真实值之差的绝对值的总和。其中,是样本数量,是第个样本的真实值,是第个样本的预测值。原创 2024-01-04 11:32:08 · 8294 阅读 · 0 评论 -
【损失函数】Hinge Loss 合页损失
Hinge Loss(合页损失)通常用于支持向量机(Support Vector Machine,SVM)等模型中,特别是在二分类问题中。它的目标是使正确类别的分数与错误类别的最高分之间的差异达到一个固定的边界,从而促使模型学会产生更大的间隔。原创 2024-01-04 11:31:13 · 3278 阅读 · 1 评论 -
【损失函数】Cross Entropy Loss 交叉熵损失
对于分类问题,最常用的损失函数是交叉熵损失函数 Cross Entropy Loss。它用于测量两个概率分布之间的差异,通常用于评估分类模型的性能。原创 2024-01-03 20:47:34 · 602 阅读 · 0 评论 -
【损失函数】Quantile Loss 分位数损失
Quantile Loss(分位数损失)是用于回归问题的一种损失函数,它允许我们对不同分位数的预测误差赋予不同的权重。这对于处理不同置信水平的预测非常有用,例如在风险管理等领域。当我们需要对区间预测而不单是点预测时分位数损失函数可以发挥很大作用。原创 2024-01-03 20:31:25 · 3898 阅读 · 0 评论 -
【损失函数】SmoothL1Loss 平滑L1损失函数
SmoothL1Loss 平滑L1损失函数 是 PyTorch 中的一个损失函数,通常用于回归问题。它是 L1 损失和 L2 损失的结合,旨在减少对异常值的敏感性。原创 2023-12-28 16:15:31 · 2314 阅读 · 2 评论 -
【深度学习】各领域常用的损失函数汇总(2024最新版)
以下是一些常用的损失函数,可根据不同的应用场景进行选择和组合:适用于回归任务,L1 损失计算预测值与真实值之间差的绝对值,对异常值不那么敏感。其中,是样本数量,是第个样本的真实值,是第个样本的预测值。更适合处理异常值,因为它不会像 L2 损失那样对较大的误差赋予过高的惩罚。原创 2023-12-28 16:09:43 · 2217 阅读 · 0 评论