SVM常用损失函数

Hinge Loss

表达式为:
L i = ∑ j ≠ y i m a x ( 0 , s j − s y i + 1 ) L_{i}=\sum_{j\ne y_{i}}max(0, s_{j}-s_{y_{i}}+1) Li=j=yimax(0,sjsyi+1)
实际上可以写成:
f ( n ) = ∑ j ≠ y i { 0 , if  s y i > s j + 1 s j − s y i + 1 , otherwise f(n) =\sum_{j\ne y_{i}} \begin{cases} 0, & \text{if $s_{y_{i}}>s_{j}+1$} \\ s_{j}-s_{y_{i}}+1, & \text{otherwise} \end{cases} f(n)=j=yi{0,sjsyi+1,if syi>sj+1otherwise
其中 s y i s_{y_{i}} syi是指第 i i i个样本的对应的其正确标签的得分, s j s_{j} sj是指这个样本对应的第 j j j个标签的得分。
即对于第 i i i个样本,有:
s j = f ( x i ; W ) j s_{j}=f(x_{i};W)_{j} sj=f(xi;W)j
s y i = f ( x i ; W ) y i s_{y_{i}}=f(x_{i};W)_{y_{i}} syi=f(xi;W)yi
比如下图中,对三张图片进行分类,一共有 c a t , c a r , f r o g cat, car, frog cat,car,frog三类。每张图片对应的每个类别的得分如下:
在这里插入图片描述则对于第一张图片,它的hinge loss 为:
( 5.1 − 3.2 + 1 ) + 0 = 2.9 (5.1-3.2+1)+0=2.9 (5.13.2+1)+0=2.9
对于第二张图片,它的hinge loss 为:
0 + 0 = 0 0+0=0 0+0=0
对于第三张图片,它的hinge loss 为:
( 2.2 − ( − 3.1 ) + 1 ) + ( 2.5 − ( − 3.1 ) + 1 ) = 12.9 (2.2-(-3.1)+1)+(2.5-(-3.1)+1)=12.9 (2.2(3.1)+1)+(2.5(3.1)+1)=12.9
所以对于这个包含三张图片的数据集来说,其hinge loss为:
L = 1 N ∑ i = 1 N L i L=\frac{1}{N}\sum_{i=1}^{N}L_{i} L=N1i=1NLi
= ( 2.9 + 0 + 12.9 ) / 3 = 5.27 =(2.9+0+12.9)/3=5.27 =(2.9+0+12.9)/3=5.27
注:使 L = 0 L=0 L=0的权重 W W W并不唯一,如 2 W 2W 2W同样可以使损失为0。
我们关心的是分类器在测试集而不是训练集中的效果,所以为了防止过拟合,我们使用正则化。
L = 1 N ∑ i = 1 N ∑ j ≠ y i m a x ( 0 , f ( x i ; W ) j − f ( x i ; W ) y i + 1 ) + λ R ( W ) L=\frac{1}{N}\sum_{i=1}^{N}\sum_{j\ne y_{i}}max(0, f(x_{i};W)_{j}-f(x_{i};W)_{y_{i}}+1)+\lambda R(W) L=N1i=1Nj=yimax(0,f(xi;W)jf(xi;W)yi+1)+λR(W)
L 2 L2 L2正则化中, R ( W ) = ∑ k ∑ l W k , l 2 R(W)=\sum_{k}\sum_{l}W_{k, l}^{2} R(W)=klWk,l2
L 1 L1 L1正则化中, R ( W ) = ∑ k ∑ l ∣ W k , l ∣ R(W)=\sum_{k}\sum_{l}|W_{k, l}| R(W)=klWk,l
弹性网络( E l a s t i c    n e t Elastic\;net Elasticnet)正则化中, R ( W ) = ∑ k ∑ l β W k , l 2 + ∣ W k , l ∣ R(W)=\sum_{k}\sum_{l}\beta W_{k, l}^{2}+|W_{k, l}| R(W)=klβWk,l2+Wk,l。(其实就是 L 1 + L 2 L1+L2 L1+L2)

Softmax loss

输入 x i x_{i} xi时,将一张图片定义为第 k k k个标签的概率为 P ( Y = k ∣ X = x i ) = e s k ∑ j e s j P(Y=k|X=x_{i})=\frac{e^{s}k}{\sum_{j}e^{s}j} P(Y=kX=xi)=jesjesk,其中 s = f ( x i ; W ) s=f(x_{i}; W) s=f(xi;W)
定义 L i = − l o g P ( Y = y i ∣ X = x i ) = − l o g ( e s k ∑ j e s j ) L_{i}=-logP(Y=y_{i}|X=x_{i})=-log(\frac{e^{s}k}{\sum_{j}e^{s}j}) Li=logP(Y=yiX=xi)=log(jesjesk)
具体计算过程如下图:
在这里插入图片描述同样地,对于 s o f t m a x softmax softmax,正则化同样适用解决过拟合问题。

  • 2
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

cofisher

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值