深度学习 二分类 损失函数_深度学习常用损失函数

本文详述了深度学习中常用的损失函数,包括交叉熵、合页损失、坡道损失、中心损失和Focal Loss,重点讨论它们在分类问题中的应用。此外,还介绍了L1、L2、Tukey's biweight和Smooth-L1损失函数在回归问题中的作用。通过选择合适的损失函数,可以优化网络学习到的特征,提高模型性能。
摘要由CSDN通过智能技术生成

船长黑板报所有文章和代码的最新版本均在

Captain1986/CaptainBlackboard​github.com
ec5b637e2bf8bd572351a70d42325a12.png

维护,知乎不做维护

您的Star是对我的鼓励

#       深度学习常用损失函数

## 引言

深度学习的任务本质上来说是拟合一个函数Fcnn,将输入的图片映射到对应的标签,这个映射的好坏需要用损失函数来表达,学习训练的过程也是由损失函数来指导。本文总结了一些在深度学习,更具体地说,实在卷积神经网络中常见的损失函数及其特性和使用场合。

**请注意:本文为了讨论方便,不严格区分目标函数,损失函数。**

**欢迎探讨,本文持续维护。**

## 实验平台

N/A

卷积神经网络常见的任务有两种,一种是分类(输出离散值,例如预测输入图片的类别),一种是回归(输出连续值,例如预测回归框的相对偏移量)。这两种任务都有各自适合的损失函数,**有时候是多种损失函数的组合**。这里为了方便,就以任务的不同来分别讨论各自的损失函数。

## 分类问题常用损失函数

### 交叉熵

一般来说,分类网络最后一层是用Softmax来输出预测各类别的概率值,KL散度是评价两个概率值的常见手段,交叉熵损失就是脱胎于KL散度,用来评价Softmax输出的概率分布与训练样本真值概率之间的差异性。而且,在优化的角度来讲,交叉熵损失也适合Softmax。关于交叉熵损失更详细的理解和说明,可以参见我前面写的[《为什么选交叉熵作为分类问题的损失函数》](Captain1986/CaptainBlackboard)。

### 合页损失函数

合页损失函数L = max(0, 1-x),其函数曲线如下图蓝色线所示,类似于一个合页而得名。合页损失函数起源于SVM,它的特点是对错分类的点,考虑到它距离分类平面的远近,距离越大则损失越大;但是对于能正确分类的样本,如果这些样本离分类平面的距离不够大的话,也会有一点损失。这样就强迫了在优化的时候,优化过程去寻找最大间

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值