[深度学习] 损失函数

深度学习中损失函数是整个网络模型的“指挥棒”, 通过对预测样本和真实样本标记产生的误差反向传播指导网络参数学习。

##分类任务的损失函数
假设某分类任务共有N个训练样本,针对网络最后分层第 i 个样本的输入特征为 X i X_i Xi ,其对应的标记为 Y i Y_i Yi是最终的分类结果(C个分类结果中的一个),h=( h 1 , h 2 , . . . , h c h_1, h_2,...,h_c h1,h2,...,hc)为网络的最终输出,即样本 i 的预测结果。其中 C 是最后所有分类的数量。

###交叉熵损失函数(cross entropy)
交叉熵损失函数又叫 softmax 损失函数。 是目前卷积神经网络中最常用的分类目标损失函数。
举个例子,比如 C = 3 ,也就是最后分类结果有三种,分别是0,1,2.假设对于第 i 个样本正确分类是1,h=(2,5,1),那么交叉熵损失函数就等于:
− ( 1 / 3 ) ∗ ( l o g ( ( e 5 ) / ( e 2 + e 5 + e 1 ) ) ) -(1 / 3)* (log((e^5) / (e^2 + e^5 + e^1))) 1/3(log((e5)/(e2+e5+e1)))
L c r o s s E n t r o p y L o s s = L s o f t m a x L o s s = − 1 N l o g ( e h y i ∑ j = 1 C e h j ) L_{crossEntropyLoss} = L_{softmaxLoss} = -\frac{1}{N}log(\frac{e^{h_{yi}}}{\sum_{j=1}^C{e^{h_j}}}) LcrossEntropyLoss=LsoftmaxLoss=N1log(j=1Cehjehyi)

合页损失函数(hinge loss)

合页函数广泛在支持向量机中使用,有时也会在损失函数中使用。

L h i n g e L o s s = 1 N ∑ i = 1 N m a x ( 0 , 1 − h y i ) L_{hingeLoss} = \frac{1}{N}\sum_{i=1}^{N}{max(0, 1-h_{y_i})} LhingeLoss=N1i=1Nmax(0,1hyi)

在分类任务中,通常使用交叉熵函数要优于使用合页损失函数。
**缺点:**合页损失函数是对错误越大的样本施以更严重的惩罚。可是这样会导致损失函数对噪音敏感。举例,如果一个样本的标记错误或者是离群点,则由于错分导致分类误差会很大,如此便会影响整个分类超平面的学习,从而降低模型泛化能力。

###坡道损失函数(ramp loss function)

优点:克服了合页损失函数鲁棒性差的特点,对噪声数据和离群数据有很好的抗噪能力。因此也被称作鲁棒损失函数。这类损失函数的特点是在分类(回归)问题误差较大区域进行了截断,使得较大的误差不再影响整个损失函数。

L r a m p L o s s = L h i n g e L o s s − 1 N m a x ( 0 , s − h y i ) L_{rampLoss} = L_{hingeLoss} - \frac{1}{N} max(0, s-h_{y_i}) LrampLoss=LhingeLossN1max(0,shyi)
= 1 N ∑ i = 1 N ( m a x ( 0 , 1 − h y i ) − m a x ( 0 , s − h y i ) ) = \frac{1}{N}\sum_{i=1}^N(max(0, 1-h_{y_i}) - max(0, s- h_{y_i})) =N1

  • 5
    点赞
  • 31
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值