【损失函数】SmoothL1Loss 平滑L1损失函数

1、介绍

torch.nn.SmoothL1Loss 是 PyTorch 中的一个损失函数,通常用于回归问题。它是 L1 损失和 L2 损失的结合,旨在减少对异常值的敏感性。

loss_function = nn.SmoothL1Loss(reduction='mean', beta=1.0)

2、参数

  1. size_average (已弃用): 以前用于确定是否应该对损失的每个元素取平均。如果设置为 False,则对损失进行求和。现在此选项已被弃用,应使用 reduction 参数代替。

  2. reduce (已弃用): 这也是一个旧参数,用于指定是否应用缩减。现在也被 reduction 参数替代。

  3. reduction: 指定应用于输出的缩减方法。可选值为:

    • 'none': 不应用缩减。
    • 'mean': 计算损失的平均值。
    • 'sum': 计算损失的总和。
  4. beta: 用于确定平滑的转换点。对于错误小于 beta 的情况,损失函数变为 L2 损失,对于大于 beta 的情况,变为 L1 损失。

3、图像

        在 Smooth L1 损失函数的图像中,当预测值与真实值之间的差异较小时(小于 beta,在这里默认为 1.0),它的计算方式类似于 L2 损失(平方误差)。当差异较大时,它的计算方式类似于 L1 损失(绝对误差)。这种混合特性使得 Smooth L1 损失对异常值不那么敏感,同时在优化中更稳定。 ​ 

4、实例

假设我们有以下情况:我们正在训练一个模型来预测某些连续值,例如房价。我们有以下目标值(真实值)和预测值:

  • 目标(真实值): [1.5, 2.0, 3.0]
  • 预测: [1.4, 2.1, 2.9]

我们使用 SmoothL1Loss 作为损失函数:

import torch
import torch.nn as nn

# 定义目标和预测值
targets = torch.tensor([1.5, 2.0, 3.0])
predictions = torch.tensor([1.4, 2.1, 2.9])

# 创建 SmoothL1Loss 实例
loss_function = nn.SmoothL1Loss(reduction='mean', beta=1.0)

# 计算损失
loss = loss_function(predictions, targets)
print(loss)

        在这个例子中,损失函数将计算目标和预测之间的 Smooth L1 损失,并返回其平均值。如果预测和目标之间的差异小于 beta(在这种情况下为 1.0),则它会应用 L2 损失的平方形式;如果差异大于 beta,则应用 L1 损失的绝对值形式。这种混合使得 Smooth L1 损失对异常值不那么敏感,特别是当预测值与真实值差异很大时。

5、参考

【pytorch】nn.SmoothL1Loss 函数使用_nn.smoothl1loss()-CSDN博客

PyTorch学习笔记:nn.SmoothL1Loss——平滑L1损失_nn.smoothl1loss()-CSDN博客

  • 18
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
L1 Loss:L1 Loss(也称为 Mean Absolute Error)是一个简单的损失函数,它计算预测值与目标值之间的差异的绝对值的平均值。它具有明显的优点,因为它对异常值不敏感,而且它的计算速度非常快。它适用于回归问题,特别是当目标值的分布包含较多的异常值时。 BCELoss:二元交叉熵损失(Binary Cross Entropy Loss)是用于二分类问题的一种常用的损失函数。它可以帮助我们最小化预测值与实际值之间的差异。BCELoss 的优点是它在损失值计算时可以更好地处理类别不平衡的情况,但它也有可能陷入局部极小值,尤其是在训练过程中数据量较少的情况下。 MSE Loss:均方误差(Mean Squared Error)是另一种常见的回归损失函数。它计算预测值与目标值之间的差异的平方的平均值。MSE Loss 的优点是它能够更好地处理较小的差异,但是它对异常值比较敏感,因此在目标值分布中包含较多的异常值时可能不太适合使用。 Smooth L1 Loss:平滑 L1 损失函数是一种介于 L1 Loss 和 MSE Loss 之间的损失函数。它的优点是它对异常值的处理相对较好,同时也能够更好地处理较小的差异,因此它适用于许多不同类型的回归问题,特别是当数据中存在一些异常值时。 综上所述,L1 Loss 适用于回归问题中目标值分布包含较多的异常值的情况,BCELoss 适用于二分类问题中数据不平衡的情况,MSE Loss 适用于回归问题中目标值分布包含较少的异常值的情况,而 Smooth L1 Loss 则适用于许多不同类型的回归问题,特别是当数据中存在一些异常值时。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值