cs231n
文章平均质量分 93
icameling
http://blog.csdn.net/icameling
展开
-
cs231n的第一次作业Softmax
Softmax分类器损失函数softmax的损失函数为 这里log的底数为e,即等价于 这里将最后得到的score归一化了。这位大神说的好 SVM只选自己喜欢的男神,Softmax把所有备胎全部拉出来评分,最后还归一化一下。损失函数求导对于softmax损失函数的求导具体可以参考ufldl的Softmax回归,很详细。 自己理了下,首先 f(Xi)j = Wj * Xi,即 f原创 2017-02-16 16:13:14 · 1610 阅读 · 1 评论 -
cs231n的第一次作业2层神经网络
一个小测试,测试写的函数对不对首先是初始化input_size = 4hidden_size = 10num_classes = 3num_inputs = 5def init_toy_model(): np.random.seed(0) return TwoLayerNet(input_size, hidden_size, num_classes, std=1e-1)def init原创 2017-02-19 11:05:48 · 3262 阅读 · 3 评论 -
cs231n的第一次作业_图像特征_HSV_HOG
cs231n的第一次作业_图像特征_HSV_HOG上次作业最后加粗了,要用features来分类,原来后一个作业便是。图像描述之前四个小作业都是用像素作为图像的描述,进行分类,效果最好的是两层神经网络,达到50%了。现在将图像用features来描述。 用作业里的提示来说就是 For each image we will compute a Histogram of Oriented Grad原创 2017-02-19 16:30:57 · 4130 阅读 · 1 评论 -
深度学习斯坦福cs231n 课程笔记
前言对于深度学习,新手我推荐先看UFLDL,不做assignment的话,一两个晚上就可以看完。毕竟卷积、池化啥的并不是什么特别玄的东西。课程简明扼要,一针见血,把最基础、最重要的点都点出来 了。 cs231n这个是一个完整的课程,内容就多了点,虽然说课程是computer vision的,但80%还是深度学习的内容。图像的工作暂时用不上,我就先略过了。 突然发现这两个课程都是转载 2017-02-20 16:36:51 · 3527 阅读 · 0 评论 -
cs231n的第一次作业knn的问题
knn 1.关于两个样本间的距离计算(这里用的是L2距离),原程序提供了三种方法。分别是两重循环,一重循环和无循环。no_loop的没有想到,尽管提示里说了用numpy的broadcast机制,看了其他人写的代码才略微懂了点。 这里是自己写的小测试,一重循环:import numpy as npa = np.array([[1,2,3],[4,5,6]]) b = np.array([[原创 2017-02-14 13:12:30 · 969 阅读 · 0 评论 -
cs231n的第一次作业svm
SVM算dwsvm实现公式中,线性函数为 损失函数为 为了更快得到期望W,需要找寻梯度dw。图像数据Xi = [ D*1 ],W[k*D]或者W[k*D+1],k表示有k个类别。W的每一个行向量便是一个分类器。对某个数据点上的损失计算 即 Li = (Wj行对Xi的分数 - Wyi行对Xi分类正确的分数 + delta)如果Li小于0,则Li = 0。对其求Wyi的偏导数和Wj的偏导数,结果原创 2017-02-14 16:19:19 · 4285 阅读 · 0 评论 -
cs231n的第二次作业(1)
一些小细节计算前向传播scores时,X转化为(样本数,像素展开数),W转化为(像素展开数, 输出类别数量)反向传播时,最开始的dscores是由softmax损失计算出来的(所以最后一层是softmax分类?),还要注意将导数保存下来,传播回去的时候要用到。关于ReLU的这个小技巧不错, out = x * (x >= 0)。每次前向传播时,都是 前向传播->激活层->前向传播->激活层-原创 2017-03-03 11:07:21 · 396 阅读 · 0 评论