![](https://img-blog.csdnimg.cn/20190409224613221.jpeg?x-oss-process=image/resize,m_fixed,h_224,w_224)
计算机视觉课程笔记
该专栏的文章记录自己关于2016年斯坦福CS231n课程的理解和笔记,以及有关计算机视觉任何有关的东西,为了分享,为了便于自己未来复习用,也为了看看自己是否真的理解了。
linjiet
笔记、分享
展开
-
李飞飞计算机视觉笔记(5)--神经网络训练细节part2
参数更新算法动量更新(Momentum)复习一下SGD公式Wi=Wi−lr∗gradW_i=W_i-lr*gradWi=Wi−lr∗grad我们在使用SGD时比其他参数更新策略更慢,一般使用中也不会仅仅使用SGD,如下我们使用SGD,等高线表示损失值相同的区域可以这样理解,水平方向表示参数xxx,垂直方向表示参数yyy,损失值是xxx和yyy的函数,中间的损失值最小,这是我们的目标,...原创 2019-03-10 17:50:49 · 1269 阅读 · 0 评论 -
李飞飞计算机视觉笔记(4)--神经网络训练细节part1
这里说明一下,因为这个视频是2016年的,可能现在有些东西已经变化。是否我们应该需要大量的数据集对模型进行训练?这种认识是错误的,我们一般很少直接对卷积神经网络进行训练,通常会先在大数据集如ImageNet中进行预训练,然后将训练好的卷积神经网络提取出来,去除分类层即softmax层,然后加一层新的分类层,在我们自己的数据集上进行训练。如果我们的数据集很小,那么我们可以只训练softmax...原创 2019-02-22 21:22:53 · 3723 阅读 · 0 评论 -
李飞飞计算机视觉笔记(3)--反向传播与神经网络初步
当前梯度值:上一层传入当前层的梯度值两层神经网络:除开输入层总共为2层的神经网络单层隐藏层的神经网络:与两层神经网络结构一致,我们描述神经网络的层数是通过有多少层的权值来定的,所以输入层不计入层数里面。梯度计算前一篇文章说了梯度计算有两种方法,一种数值方法,直接简单但速度慢,第二种就是解析方法,通过微积分进行计算,计算速度快,但有时候的结果是错误的,所以一般会进行梯度检查的操作。我们一...原创 2019-02-13 00:05:29 · 974 阅读 · 0 评论 -
李飞飞计算机视觉笔记(2)--线性分类器损失函数与最优化
多类SVM损失(Multiclass SVM loss)这里偷个懒,SVM损失对应的公式如下图(图片来自李飞飞计算机视觉课件):公式中的下标jjj表示不正确类别,yiy_{i}yi表示正确类别,sss对应是得分向量,而sjs_{j}sj和syis_{y_i}syi分别表达不正确类别的得分和正确类别的得分。LiL_iLi的含义是对于第iii张图片来说预测的损失值,他等于不正确类别的得...原创 2019-02-08 22:40:33 · 867 阅读 · 0 评论 -
李飞飞计算机视觉笔记(1)--数据驱动的图像分类方式:K最近邻与线性分类器
此系列博客记录自己学习李飞飞计算机视觉课程,不断更新中。图片分类图片分类是计算机视觉中最核心的任务,将图片转换为一个巨大的表单(多维数组),然后给这个表单打一个标签。学会了图片分类你就可以轻松解决物体检测、图像场景分类等。原始的很多方法是显示编程,基于物体的某个特征进行分类不具有通用性,换一个物体又要重写设定分类规则。数据驱动的方法效果更好。运用机器学习技术通过“学习”数据,得到的最终模型...原创 2019-01-23 00:24:26 · 813 阅读 · 0 评论