Deep Learning, Score function, Loss function 和 optimization function(二)

本文探讨了深度学习中的SVM和Softmax分类器。SVM的目标是使正确分类的得分高于错误分类至少固定分数,损失函数反映了这一要求。正则化通过L2惩罚不均衡的权重,鼓励较小的权重。Softmax分类器则将得分视为归一化的类别概率,并通过交叉熵损失函数来优化。
摘要由CSDN通过智能技术生成

接上篇......

我们先看看SVM

要loss小,SVM希望正确分类的得分要至少比所有不正确分类的得分都高个固定的分数△(比如高个10分),如果达到了这个要求loss就是0,看看公式吧:

其中s是score的缩写,表明得分,j是每一个分类(比如猫类,车类)而yi则是正确的分类,注意j≠yi。 这个公式的意思就是说:将每一个分类的得分减去正确分类的得分再加上一个固定分,然后在跟0

比较后取大的,然后累加,这就是loss值了。仔细看该公式,可以发现要想loss为0,错误分类的分数一定要低于正确分类并且至少低个△分才行。

下面图很好的展示了这个要求:

如果错误分类的得分都落在了绿区,那loss为0,否则只要有一个分类的得分在红区,那loss就不为0了。

到了这里,还有一个不得不提的概念:Regularization

什么是Regularization呢? 简单来说它施加影响的对象是W,用于导向W的选择。

举个例子:在

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值