深度学习:常见损失函数简介--名称、作用和用法

目录

1. L1 Loss

2. NLL Loss (Negative Log Likelihood Loss)

3. NLLLoss2d

4. Gaussian NLL Loss

5. MSE Loss (Mean Squared Error Loss)

6. BCE Loss (Binary Cross-Entropy Loss)

7. Smooth L1 Loss

8. Cross Entropy Loss


1. L1 Loss

  • 作用:计算预测值与真实值之间的绝对差。
  • 用法:常用于回归问题,适合处理异常值。
  • 公式

 

2. NLL Loss (Negative Log Likelihood Loss)

  • 作用:用于分类任务,特别是在使用Softmax的多类分类中。
  • 用法:通常与Softmax输出结合使用。
  • 公式

 

3. NLLLoss2d

  • 作用:与NLL Loss类似,但用于2D图像数据(如语义分割)。
  • 用法:适用于多类图像分割任务。
  • 公式:类似于NLL Loss,但在空间维度上扩展。

 

4. Gaussian NLL Loss

  • 作用:用于处理带有高斯噪声的回归任务。
  • 用法:输出为高斯分布的模型。
  • 公式

 

5. MSE Loss (Mean Squared Error Loss)

  • 作用:计算预测值与真实值之间的均方误差。
  • 用法:广泛用于回归问题。
  • 公式

 

6. BCE Loss (Binary Cross-Entropy Loss)

  • 作用:用于二分类问题,计算每个样本的交叉熵。
  • 用法:适合处理二元标签任务。
  • 公式

 

7. Smooth L1 Loss

  • 作用:结合了L1 Loss和MSE Loss,平滑处理。
  • 用法:常用于目标检测任务。
  • 公式:当差值小于1时,使用MSE,否则使用L1。

 

8. Cross Entropy Loss

  • 作用:用于多类分类问题,计算预测分布与真实分布的差异。
  • 用法:常与Softmax一起使用。
  • 公式

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

吃什么芹菜卷

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值