损失函数一直在波动_各种损失函数详解

本文介绍了深度学习中的几种常见损失函数,包括均方误差、交叉熵损失、Focal Loss和Smooth L1,探讨它们在不同任务中的应用及其优缺点。Focal Loss针对目标检测中的类别不平衡问题进行了优化,而KL散度在概率分布比较中发挥作用。
摘要由CSDN通过智能技术生成

6a5022fa046d519168626ba00d2a67ef.png

开一篇文章,记录我遇到过的论文中损失函数。还没看过多少文章,所以目前接触的还比较少。

  1. 简单的诸如0-1损失的就不提了,比较简单。

2. 均方误差函数

这个损失函数大家都能理解,形式比较简单:

。主要应用于回归任务,如在目标检测任务中对于坐标的损失计算。

3. 交叉熵损失

广泛应用于分类的损失函数,一般是先将网络输出进行一个softmax操作,将数值转为类别概率(以前一直疑惑为什么要用softmax,而不直接求和。通过指数操作能将所有数化为正数。另外也是为了反向传播时不会导致梯度爆炸问题)。接着将结果带入到交叉熵损失函数中,他可以进行二分类和多分类任务。如预测是否是物体,就是一个二分类问题,预测是哪个物体的概率,就是多分类问题。公式如下

,
是第j个真实标签,只有一个位置是1,(0,0,0, ... ,1, ... ,0)。
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值