cs231n
文章平均质量分 94
九点澡堂子
这个作者很懒,什么都没留下…
展开
-
CS231n——机器学习算法————KNN
参考李飞飞cs231n2017课程:http://vision.stanford.edu/teaching/cs231n/2017/syllabus.html1. Nearest Neighbor Classifier1.1 计算方法【L1 distance】:逐个比较图像中所有像素的值,计算误差和d1(I1,I2)=∑p∣I1p−I2p∣d_1 (I_1, I_2) = \sum_{p}...原创 2018-09-24 13:36:25 · 293 阅读 · 0 评论 -
CS231n——机器学习算法——线性分类(上: 线性分类器)
k-Nearest Neighbor分类器存在以下不足:分类器必须记住所有训练数据并将其存储起来,以便于未来测试数据用于比较。这在存储空间上是低效的,数据集的大小很容易就以GB计。对一个测试图像进行分类需要和所有训练图像作比较,算法计算资源耗费高。概述:我们将要实现一种更强大的方法来解决图像分类问题,该方法可以自然地延伸到神经网络和卷积神经网络上。这种方法主要有两部分组成:一个是...原创 2018-09-24 19:53:13 · 16126 阅读 · 4 评论 -
CS231n——机器学习算法——最优化
在线性分类的笔记中,介绍了图像分类任务中的两个关键部分:基于参数的评分函数。该函数将原始图像像素映射为分类评分值(例如:一个线性函数)。损失函数。该函数能够根据分类评分和训练集图像数据实际分类的一致性,衡量某个具体参数集的质量好坏。损失函数有多种版本和不同的实现方式(例如:Softmax或SVM)。上节中,线性函数的形式是f(xi,W)=Wxif(x_i, W)=Wx_if(xi,W)...原创 2018-10-10 21:53:33 · 364 阅读 · 0 评论 -
CS231n——机器学习算法——线性分类(下:Softmax及其损失函数)
在前两篇笔记中,基于线性分类上,线性分类中继续记笔记。1.介绍Softmax分类器SVM和Softmax分类器是最常用的两个分类器,Softmax的损失函数与SVM的损失函数不同。对于学习过二元逻辑回归分类器的读者来说,Softmax分类器就可以理解为逻辑回归分类器面对多个分类的一般化归纳。SVM将输出f(xi,W)f(x_i,W)f(xi,W)作为每个分类的评分(因为无定标,所以难以直接...原创 2018-10-10 20:18:20 · 8670 阅读 · 5 评论