【CS231n winter2016 Lecture 3 (Linear classification II/loss function/optimization/SGD)】

6 篇文章 0 订阅

一上课就说作业的截止日期只有7天,想起原来该课程还是有作业的,不做的话可能达不到效果,要不等到课程中段了或者看完整个课后再写吧。。另外自己在想找个时间把凸优化和乔丹推荐的书单开始学习了。


Lecture 3

回顾上一讲,image classifier is a tough task但是最新的技术已经能又快又好地解决这个问题了,这些都发生在过去3年里,课程结束后你们就是这个领域的专家了!

这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述

今天的任务就是上面最后一张图关于loss function/optimization
举个例子:
使用下面这种策略衡量multi-class SVM的损失(为什么这样我也不太明白)

这里写图片描述

平均得到总的损失:

这里写图片描述

但是使用上述这种损失函数有一bug:(大概的意思就是如果存在W使得损失函数为0,那么W成比例放大也可以使得损失函数为0,和函数/几何间隔差不多)

这里写图片描述

具体可以看一个例子

这里写图片描述

解决的方法是加上正则项(话说这种解决方法与正统的SVM解决方法似乎不同,后者考虑的是使用几何间隔,并没有说什么正则项):

这里写图片描述

比如下面的例子,偏爱第二种W,给出的解释是因为第二种考虑了更多的input pixels
在讲softmax分类器的时候又有同学问到了此处的理解,Andrej解释道L1范数倾向稀疏,类似是一种特征选择的方法,马上就有同学追问那么下面的例子为什么不偏爱第一种W呢,既然它可以选择更少的特征,Andrej语塞。。他说这个同学说的确实有道理,关于正则化还有很多technical interperatation,这里他只是想让大家获得一些浅显的intuition,不打算深钻,有兴趣可以看learning theroy

这里写图片描述

刚才讲的是SVM,现在讲第二种分类器,softmax

这里写图片描述

计算一个损失函数的例子:

这里写图片描述

SVM和softmax有不同的损失函数,下面解释原因:

这里写图片描述

下面的例子(从上往下变化),SVM的margin总是为0,而softmax则会很高兴,因为softmax希望”正的很正,负的很负“

这里写图片描述

下面讲优化,,(感觉上面讲的不如CS229深刻。。)

这里写图片描述
这里写图片描述

方法一:随机搜索,其实就是guess and check,看哪个最好

这里写图片描述

方法二:梯度法

这里写图片描述

实际中常使用解析梯度,然后用数值梯度去检验/gradient check

这里写图片描述

Mini-batch gradient descent is more efficient

这里写图片描述

比如用Mini-batch gradient descent 训练神经网络,总体损失下降,但是每一次都有噪声

这里写图片描述

除此,learning rate太大太小也不行

这里写图片描述

还有更多“花哨”的更新方法:

这里写图片描述

后面讲到除了直接将raw image输入线性分类器,还可以做一些特征工程,将特征构成一个列向量代替raw image输入分类器:

这里写图片描述

比如有颜色柱状图的方法;

这里写图片描述

HOG/SIFT的方法;

这里写图片描述

bag of words;

这里写图片描述

作为与人工特征工程的对比,祭出了神经网络的方法:

这里写图片描述

下一讲:

这里写图片描述

本讲结束!


  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值