CS231n 2017 学习笔记02——线性分类 Linear Classification

本博客内容来自 Stanford University CS231N 2017 Lecture 2 - Image Classification

课程官网:http://cs231n.stanford.edu/syllabus.html

从课程官网可以查询到更详细的信息,查看视频需要FQ上YouTube,如果不能FQ或觉得比较麻烦,也可以从我给出的百度云链接中下载。

课程视频&讲义下载:http://pan.baidu.com/s/1gfu51KJ

 


 

带参数的模型(parametric classifier)

上一篇博客中讲解的KNN模型,不算超参数的情况下,只需要数据作为输入,就可以产生分类结果。这样的模型没有参数。

现在我们的模型不光需要数据,还需要一组参数W(也可以叫做权重Weight),和一个函数f。将数据和参数W输入函数f得到一组结果,结果中每个分量代表数据与某一类的契合度,数值越高,数据越有可能属于这个类别。

根据f定义的不同,就演化出了不同的模型,而线性模型是其中最简单的一种

在线性模型中,f的定义很简单,就是乘法,将参数W与输入x相乘,就得到了最终的输出。不过要注意,这里的W、x都是矩阵,乘法也是矩阵乘法。

 

如何理解线性模型

  • 模板(template)

  线性模型的系数矩阵,行数是类别的数量,列数是输入数据的长度。每一行单独看,都是这一行权重与数据的内积,而两个向量的内积可以在一定程度上反应两者之间相似性,两者方向上越相近,内积越大。因此,我们就可以把权重的每一行想象成一个模板,相乘的操作就是在尝试用数据去匹配每一个模板,最终匹配得分最高的,也即是最相似的就是分类的结果。

  而且如果我们把系数矩阵每一行通过相同的规则(图片数据一般都是三维的rgb,输入给模型的时候都被转换成了一维数组)逆向转换为图片,我们就能发现,这些模板是能隐约看出所代表的类别的。

 

  这张图片下部就是将对应类别权重逆向转化为图片后得到的。第二个和第八个尤其明显,基本已经能看出汽车和马的轮廓了。

  • 高维平面

  在二维的时候,可以把线性模型想象成一条直线,直线的一边是属于某类别的数据,另一边是不属于的数据。

  在三维的时候,同理,可以想象成平面。

  在n维的时候,可以想象成n-1维的平面,将整个空间划分成两部分,一部分属于某类别,一部分不属于。

 

线性模型的缺陷

  • 无法解决线性不可分问题

  如图所示,红色和蓝色分别代表不同的类别。像上述三种情况就属于线性不可分问题,也就是无法用一条直线将两种类别的区域完美的切分开来。线性模型无法解决这类问题。

  • 模板唯一性

  线性模型中,和某一个类别对应的系数只有W中的一行,也就是说,一个类别只有一个模板。这样就对识别某些变化幅度很大的类别造成了困难。

  比方说,刚才讲模板的时候,第八个模板是关于马的。可以明显的看到,这匹马似乎有两个头,这就是因为在训练数据中有的马是头朝左的,有的是头朝右的。由于线性模型只能有一个模板,所以这个模型将两种类型做了个平均,结果就是好像马有两个头。

 

转载于:https://www.cnblogs.com/irran/p/cs231n_learningnotes_02.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值