深度学习之损失函数的定义与种类

1.损失函数

1.1定义

​ 损失函数(loss function)就是用来度量模型的预测值f(x)与真实值Y的差异程度的运算函数,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。

1.2损失函数的种类

1.2.1基于距离量度的损失函数

​ 基于距离度量的损失函数通常将输入数据映射到基于距离度量的特征空间上,如欧氏空间、汉明空间等,将映射后的样本看作空间上的点,采用合适的损失函数度量特征空间上样本真实值和模型预测值之间的距离。特征空间上两个点的距离越小,模型的预测性能越好。

1.2.1.1. 均方误差损失函数(MSE)

L ( Y ∣ f ( x ) ) = 1 n ∑ i = 1 N ( Y i − f ( x i ) ) 2 L(Y|f(x))=\frac{1}{n}\sum\limits_{i=1}^N(Y_i-f(x_i))^2 L(Yf(x))=n1i=1N(Yif(xi))2

​ 在回归问题中,均方误差损失函数用于度量样本点到回归曲线的距离,通过最小化平方损失使样本点可以更好地拟合回归曲线。均方误差损失函数(MSE)的值越小,表示预测模型描述的样本数据具有越好的精确度。由于无参数、计算成本低和具有明确物理意义等优点,MSE已成为一种优秀的距离度量方法。尽管MSE在图像和语音处理方面表现较弱,但它仍是评价信号质量的标准,在回归问题中,MSE常被作为模型的经验损失或算法的性能指标。

1.2.1.2. L1损失函数

L ( Y ∣ f ( x ) ) = ∑ i = 1 N ∣ Y i − f ( x i ) ∣ L(Y|f(x))=\sum\limits_{i=1}^N|Y_i-f(x_i)| L(Yf(x))=i=1NYif(xi)

​ L1损失又称为曼哈顿距离,表示残差的绝对值之和。L1损失函数对离群点有很好的鲁棒性,但它在残差为零处却不可导。另一个缺点是更新的梯度始终相同,也就是说,即使很小的损失值,梯度也很大,这样不利于模型的收敛。针对它的收敛问题,一般的解决办法是在优化算法中使用变化的学习率,在损失接近最小值时降低学习率。

1.2.1.3 L2损失函数

L ( Y ∣ f ( x ) ) = 1 n ∑ i = 1 N ( Y i − f ( x i ) ) 2 L(Y|f(x))=\sqrt{\frac{1}{n}\sum\limits_{i=1}^N(Y_i-f(x_i))^2} L(Yf(x))=n1i=1N(Yif(xi))2

​ L2损失又被称为欧氏距离,是一种常用的距离度量方法,通常用于度量数据点之间的相似度。由于L2损失具有凸性和可微性,且在独立、同分布的高斯噪声情况下,它能提供最大似然估计,使得它成为回归问题、模式识别、图像处理中最常使用的损失函数。

1.2.1.4 Smooth L1损失函数

L ( Y ∣ f ( x ) ) = { 1 2 ( Y − f ( x ) ) 2 , |Y-f(x)<1| ∣ Y − f ( x ) ∣ − 1 2 , |Y-f(x)>=1| L(Y|f(x))=\begin{cases}\frac{1}{2}(Y-f(x))^2,&\text{|Y-f(x)<1|}\\|Y-f(x)|-\frac{1}{2},&\text{|Y-f(x)>=1|}\end{cases} L(Yf(x))={21(Yf(x))2,Yf(x)21,|Y-f(x)<1||Y-f(x)>=1|

Smooth L1损失是由Girshick R在Fast R-CNN中提出的,主要用在目标检测中防止梯度爆炸

1.2.1.5 huber损失函数

L ( Y ∣ f ( x ) ) = { 1 2 ( Y − f ( x ) ) 2 , |Y-f(x)<= δ | δ ∣ Y − f ( x ) ∣ − 1 2 δ 2 , |Y-f(x)> δ | L(Y|f(x))=\begin{cases}\frac{1}{2}(Y-f(x))^2,&\text{|Y-f(x)<=$\delta$|}\\\delta|Y-f(x)|-\frac{1}{2}\delta^2,&\text{|Y-f(x)>$\delta$|}\end{cases} L(Yf(x))={21(Yf(x))2,δYf(x)21δ2,|Y-f(x)<=δ||Y-f(x)>δ|

​ huber损失是平方损失和绝对损失的综合,它克服了平方损失和绝对损失的缺点,不仅使损失函数具有连续的导数,而且利用MSE梯度随误差减小的特性,可取得更精确的最小值。尽管huber损失对异常点具有更好的鲁棒性,但是,它不仅引入了额外的参数,而且选择合适的参数比较困难,这也增加了训练和调试的工作量。

1.2.2 基于概率分布度量的损失函数

​ 基于概率分布度量的损失函数是将样本间的相似性转化为随机事件出现的可能性,即通过度量样本的真实分布与它估计的分布之间的距离,判断两者的相似度,一般用于涉及概率分布或预测类别出现的概率的应用问题中,在分类问题中尤为常用。

1.2.2.1 KL散度函数(相对熵)

L ( Y ∣ f ( x ) ) = ∑ i = 1 N Y i × log ⁡ ( Y i f ( x i ) ) L(Y|f(x))=\sum\limits_{i=1}^NY_i\times\log(\frac{Y_i}{f(x_i)}) L(Yf(x))=i=1NYi×log(f(xi)Yi)

​ 公式中Y代表真实值,f(x)代表预测值。

​ KL散度( Kullback-Leibler divergence)也被称为相对熵,是一种非对称度量方法,常用于度量两个概率分布之间的距离。KL散度也可以衡量两个随机分布之间的距离,两个随机分布的相似度越高的,它们的KL散度越小,当两个随机分布的差别增大时,它们的KL散度也会增大,因此KL散度可以用于比较文本标签或图像的相似性。基于KL散度的演化损失函数有JS散度函数。JS散度也称JS距离,用于衡量两个概率分布之间的相似度,它是基于KL散度的一种变形,消除了KL散度非对称的问题,与KL散度相比,它使得相似度判别更加准确。

​ 相对熵是恒大于等于0的。当且仅当两分布相同时,相对熵等于0。

1.2.2.2 交叉熵损失

L ( Y ∣ f ( x ) ) = − ∑ i = 1 N Y i log ⁡ ( f ( x i ) L(Y|f(x))=-\sum\limits_{i=1}^NY_i\log(f(x_i) L(Yf(x))=i=1NYilog(f(xi)

​ 交叉熵是信息论中的一个概念,最初用于估算平均编码长度,引入机器学习后,用于评估当前训练得到的概率分布与真实分布的差异情况。为了使神经网络的每一层输出从线性组合转为非线性逼近,以提高模型的预测精度,在以交叉熵为损失函数的神经网络模型中一般选用tanh、sigmoid、softmax或ReLU作为激活函数。

​ 交叉熵损失函数刻画了实际输出概率与期望输出概率之间的相似度,也就是交叉熵的值越小,两个概率分布就越接近,特别是在正负样本不均衡的分类问题中,常用交叉熵作为损失函数。目前,交叉熵损失函数是卷积神经网络中最常使用的分类损失函数,它可以有效避免梯度消散。在二分类情况下也叫做对数损失函数。

1.2.2.3 softmax损失函数

L ( Y ∣ f ( x ) ) = − 1 n ∑ i = 1 N Y i log ⁡ ( e f Y i ∑ j = 1 c e f j ) L(Y|f(x))=-\frac{1}{n}\sum\limits_{i=1}^NY_i\log(\frac{e^fY_i}{\sum\limits_{j=1}^ce^fj}) L(Yf(x))=n1i=1NYilog(j=1cefjefYi)

​ 从标准形式上看,softmax损失函数应归到对数损失的范畴,在监督学习中,由于它被广泛使用,所以单独形成一个类别。softmax损失函数本质上是逻辑回归模型在多分类任务上的一种延伸,常作为CNN模型的损失函数。softmax损失函数的本质是将一个k维的任意实数向量x映射成另一个k维的实数向量,其中,输出向量中的每个元素的取值范围都是(0,1),即softmax损失函数输出每个类别的预测概率。由于softmax损失函数具有类间可分性,被广泛用于分类、分割、人脸识别、图像自动标注和人脸验证等问题中,其特点是类间距离的优化效果非常好,但类内距离的优化效果比较差。

softmax损失函数具有类间可分性,在多分类和图像标注问题中,常用它解决特征分离问题。在基于卷积神经网络的分类问题中,一般使用softmax损失函数作为损失函数,但是softmax损失函数学习到的特征不具有足够的区分性,因此它常与对比损失或中心损失组合使用,以增强区分能力。

1.3 如何选择损失函数?

通常情况下,损失函数的选取应从以下方面考虑:
(1) 选择最能表达数据的主要特征来构建基于距离或基于概率分布度量的特征空间。
(2)选择合理的特征归一化方法,使特征向量转换后仍能保持原来数据的核心内容。
(3)选取合理的损失函数,在实验的基础上,依据损失不断调整模型的参数,使其尽可能实现类别区分。
(4)合理组合不同的损失函数,发挥每个损失函数的优点,使它们能更好地度量样本间的相似性
(5)将数据的主要特征嵌入损失函数,提升基于特定任务的模型预测精确度

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

真的卷不栋了

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值