CS231n 学习笔记(2)——神经网络 part2 :Softmax classifier

*此系列为斯坦福李飞飞团队的系列公开课“cs231n convolutional neural network for visual recognition ”的学习笔记。本文主要是对module 1 的part2 Linear classification: Support Vector Machine, Softmax 的翻译与学习。

    Softmax classifier是另一种常用的分类器,它可以看作是二类罗杰斯特回归对于多种分类情况的推广。在Softmax classifier中,判别函数与SVM一致,但是损失函数被重新定义为:

这里写图片描述
可以从信息论的角度来解读Softmax classifier:
这里写图片描述

p为正确的分类,q为算法估计出的分类。
Softmax classifier就是要缩小p,q之间的信息熵。其中q是对样本分类的估计:

这里写图片描述

p是样本的正确分类,用一个向量表示,这个向量中只有一个维度是1,其余全部都是0.

这里写图片描述
从概率的角度来解读:
这里写图片描述

上式表示在W的条件下,对输入Xi进行分类,Xi属于第yi类的概率。对于正确的分类,我们要尽力缩小否定的可能性(minimizing the negative log likelihood of the correct class),我们可以用极大似然估计来解决这个问题。也可以用极大后验概率估计(Maximum a posteriori (MAP) )来解决这个问题。

数据稳定性
这里写图片描述
C是一个常熟,它的选取通常遵循准则:
这里写图片描述

svm vs softmax
这里写图片描述

SVM与softmax的具体操作过程如上图所示,值得注意的是,最后得到的损失函数并不具备可比性。只有用相同的分类器得到的损失函数才具备可比性。
softmax为图片是否属于某个类别提供了一个“概率”。之所以打引号,是因为进过softmax对判别函数的处理后,所有判别的得分之和是1。例如:

这里写图片描述

如果将W整体拉伸,缩小一倍。判别的结果将变为:

可以看出,“概率”的分布更加分散了。

实践中,SVM和softmax常常的性能常常不相上下。差别微乎其微。

这里写图片描述

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

皓月如我

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值