斯坦福CS231n - CNN for Visual Recognition(1)-lecture2图像分类、最近邻分类器

本节主要简单介绍了图像分类和流程,讲解了最近邻分类器的原理以及超参数的的调优与交叉验证

图像分类

  顾名思义,就是给定一个图像,判断出它属于哪一个类。通常通过带有标签的数据作为训练集用各种方法进行训练, 然后在测试集上进行测试,预测出最可能的类别(标签)。

  图像分类面临的困难:视角变化、大小变化、形变、遮挡、光照条件、背景干扰、类内差异等

  图像分类流程:输入->学习->评价


最近邻分类器

  NN分类器的原理非常简单。针对图像分类来说,就是将给定的图像与带标签的图像逐个像素进行比较,选取距离最小图像的标签作为给定图像类别的预测,这里可以计算L1距离和L2距离。
  L1距离公式(绝对值相加) : d1(I1,I2)=p|Ip1Ip2|

  L2距离公式(欧氏距离): d2(I1,I2)=p(Ip1Ip2)2

1. K近邻分类器

  顾名思义,就是选取距离最小的K个图像,将数量最多的标签作为给定图像类别的预测。

KNN优缺点
(1)优点:
  算法简单,易于理解,易于实现,不需要参数估计,不需要事先训练。
(2)缺点:
  测试需要计算量特别大(实际中关注测试效率远远大于训练效率),训练样本必须存储在本地,内存开销也特别大。
  
  实际中在图像分类中很少使用KNN,因为KNN实质是比较像素的差异,导致图像更多的是按照背景和颜色被分类。

2. 用于超参数调优的验证集

  当我们在设计机器学习算法的时候,除了最终预测的时候使用测试集,其他时候都不能使用(很容易造成过拟合)。我们可以在训练集中分出一部分(50%~90%)作为验证集,在验证集上进行超参数调优。一旦找到最优的超参数,就让算法以该参数在测试集跑且只跑一次,并根据测试结果评价算法。

3. 交叉验证

  当训练集数量较少时,我们一般使用交叉验证的方式(一般分为3、5、10份),比如:将训练集平均分成5份,其中4份用来训练,1份用来验证。然后我们循环着取其中4份来训练,其中1份来验证,最后取所有5次验证结果的平均值作为算法验证结果。
这里写图片描述


参考资料

链接:http://cs231n.github.io/classification/
链接:https://zhuanlan.zhihu.com/p/20894041?refer=intelligentunit
   https://zhuanlan.zhihu.com/p/20900216?refer=intelligentunit
链接:http://blog.csdn.net/han_xiaoyang/article/details/49949535

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值