深度学习
举一个栗子吖
这个作者很懒,什么都没留下…
展开
-
斯坦福CS231n课程翻译笔记(四)Nearest Neighbor的优劣
四、Nearest Neighbor分类器的优劣 现在对Nearest Neighbor分类器的优缺点进行思考。首先,Nearest Neighbor分类器易于理解,实现简单。其次,算法的训练不需要花时间,因为其训练过程只是将训练集数据存储起来。然而测试要花费大量时间计算,因为每个测试图像需要和所有存储的训练图像进行比较,这显然是一个缺点。在实际应用中,我们关注测试效率远远高于训练效率。其实,我们后续要学习的卷积神经网络在这个权衡上走到了另一个极端:虽然训练花费很多时间,但是一旦训练完成,对新的测试数据进行原创 2020-09-16 15:56:19 · 352 阅读 · 0 评论 -
斯坦福CS231n课程翻译笔记(三)验证集、交叉验证集和超参数调优
三、用于超参数调优的验证集 k-NN分类器需要设定k值,那么选择哪个k值最合适的呢?我们可以选择不同的距离函数,比如L1范数和L2范数等,那么选哪个好?还有不少选择我们甚至连考虑都没有考虑到(比如:点积)。所有这些选择,被称为超参数(hyperparameter)。在基于数据进行学习的机器学习算法设计中,超参数是很常见的。一般说来,这些超参数具体怎么设置或取值并不是显而易见的。 你可能会建议尝试不同的值,看哪个值表现最好就选哪个。好主意!我们就是这么做的,但这样做的时候要非常细心。特别注意:决不能使用测试集转载 2020-09-16 15:30:06 · 496 阅读 · 0 评论 -
斯坦福CS231n课程翻译笔记(二)Nearest Neighbor分类器
二、Nearest Neighbor分类器(k-Nearest Neighbor) 作为课程介绍的第一个方法,我们来实现一个Nearest Neighbor分类器。虽然这个分类器和卷积神经网络没有任何关系,实际中也极少使用,但通过实现它,可以让读者对于解决图像分类问题的方法有个基本的认识。 图像分类数据集:CIFAR-10。一个非常流行的图像分类数据集是CIFAR-10。这个数据集包含了60000张32X32的小图像。每张图像都有10种分类标签中的一种。这60000张图像被分为包含50000张图像的训练集和转载 2020-09-16 15:19:59 · 378 阅读 · 0 评论 -
斯坦福CS231n课程翻译笔记(一)图像分类、数据驱动方法和流程
前言 这是一篇介绍性教程,面向非计算机视觉领域的同学,教程将向同学们介绍图像分类问题和数据驱动方法。 总目录 1、图像分类、数据驱动方法和流程 2、Nearest Neighbor分类器(k-Nearest Neighbor) 3、验证集、交叉验证集和超参数调参 4、Nearest Neighbor的优劣 5、小结 6、小结:应用kNN实践 7、拓展阅读 一、图像分类、数据驱动方法和流程 图像分类 目标:这一节我们将介绍图像分类问题。所谓图像分类问题,就是已有固定的分类标签集合,然后对于输入的图像,从分类标转载 2020-09-16 10:03:53 · 173 阅读 · 0 评论