cs231n笔记
嘀嗒嘀嘀嗒嘀
别低头,王冠会掉
展开
-
cs231n---图像分类
目标 分类就是常规理解的分类,之后我们可以看到CV中很多看似不同的问题,比如物体检测和分割,都可以归结为图像分类问题。 例子 图像分类模型读取该图片,并生成该图片属于集合{cat,都给,hat,mug}中各个标签的概率。 图像:248 × 400 × 3 = 297600 困难和挑战 视角变化 大小变化 形变:形状并非一成不变 遮挡:部分被挡住,剩下一部分可见 光...转载 2018-05-07 14:02:01 · 482 阅读 · 0 评论 -
cs231n----线性分类器
评分(score)函数:原始的图像数据到类别分值的映射 损失(loss)函数:量化预测分类标签的得分与真实类别之间一致性 这两个函数将配合实现最优化, 训练出最优的参数: 即在最优化过程中,将通过更新评分函数的参数来最小化损失函数值。 线性分类器 f(xi,W,b)=Wxi+bf(xi,W,b)=Wxi+bf(x_i,W,b) = W{x_i}+b 线性函数 在编程的时候...转载 2018-05-07 22:09:19 · 404 阅读 · 0 评论 -
cs321n------最优化笔记
最优化是寻找能使得损失函数最小化的参数W的过程。 铺垫: 一旦理解了这三个部分是如何相互运作的,我们将会回到第一个部分(基于参数的函数映射),然后将其拓展为一个远比线性函数复杂的函数:首先是神经网络,然后是卷积神经网络。而损失函数和最优化过程这两个部分将会保持相对稳定。 损失函数可视化(不懂) 本课中讨论的损失函数一般都是定义在高维度的空间中(比如,在CIFAR-10中一个线性分类器的...转载 2018-05-08 01:10:16 · 808 阅读 · 0 评论 -
cs231n----反向传播
问题陈述:这节的核心问题是:给定函数f(x) ,其中x是输入数据的向量,需要计算函数f关于x的梯度,也就是∇f(x)∇f(x)\nabla f(x)。 目标:之所以关注上述问题,是因为在神经网络中fff对应的是损失函数(L)(L)(L),输入xxx里面包含训练数据和神经网络的权重。举个例子,损失函数可以是SVM的损失函数,输入则包含了训练数据(xi,yi),i=1...N(xi,yi),i=1....转载 2018-05-08 13:21:08 · 581 阅读 · 0 评论 -
cs231n------神经网络
这一部分,我看过了吴恩达老师的课程笔记,所以只做补充,不做全部了。转载 2018-05-08 15:30:26 · 499 阅读 · 0 评论