计算机视觉
文章平均质量分 70
介绍计算机视觉相关背景、数学知识、算法原理、实战代码。
爱学习的图灵机
计算机新生努力学习
展开
-
计算机视觉的深度学习 Lecture15:Object Detection 笔记 EECS 498.007/008
RCNN解决方案:区域选择:使用proposal method预先搜索图片上目标的“可能区域”(或者叫ROI)(不是滑动窗口的box),之后可以在“可能区域”上做图像分类+检测(RCNN)卷积之后的一个grid对应于一个指定大小的Anchor box,这个gird经过RPN可以预测他对应的Anchor是否存在一个目标(object)、是一个二分类问题。基于Region,就是在启发式方法搜得的部分区域中(ROI)进行分类,并且还会做一个变换–在一个ROI中检测出的框子可以偏离原ROI的中心坐标、修改框子大小。原创 2023-05-13 21:22:00 · 570 阅读 · 1 评论 -
计算机视觉的深度学习 Lecture4:Regularization + Optimization 笔记 EECS 498.008
SGD通过每次抽取一部分(mini-batch)来计算梯度,而不是遍历整个数据集来求梯度,大大增大了求梯度速度,并且性能不怎么受影响。AdaGrad在梯度大时步子变小,梯度小时步子变大。注意这个等价是全过程等价,如果只挑选其中一步是不同的。概率视角:通过随机抽样mini-batch求出的梯度,在期望上等于用全部样本计算的梯度。Nesterov看下一步的走向,动量下降看当前走向,区别不大;、等高线图,也就是垂直方向梯度变化大,水平方向梯度变换缓。现在我们可以看到,两个更新式子在数学上是等价的。原创 2023-05-13 12:47:10 · 578 阅读 · 0 评论 -
计算机视觉的深度学习 Lecture4:Optimization 笔记 EECS 498.008
通过每次抽取一部分(mini-batch)来计算梯度,而不是遍历整个数据集来求梯度,大大增大了求梯度速度,并且性能不怎么受影响。AdaGrad在梯度大时步子变小,梯度小时步子变大。注意这个等价是全过程等价,如果只挑选其中一步是不同的。概率视角:通过随机抽样mini-batch求出的梯度,在期望上等于用全部样本计算的梯度。Nesterov看下一步的走向,动量下降看当前走向,区别不大;、等高线图,也就是垂直方向梯度变化大,水平方向梯度变换缓。现在我们可以看到,两个更新式子在数学上是等价的。原创 2023-05-12 00:27:04 · 290 阅读 · 0 评论 -
计算机视觉的深度学习 Lecture5:Neural Networks 笔记 EECS 498.008
事先思考一下loss的可能值有助于debug。如果W随机为高斯分布,μ为0.001,那么下面sj-syi就会很小,Li的值接近C-1,C为分类数。所以如果写在C10上的线性分类器,一开始的单类loss不在2.3附近,很可能代码有bug。,在CIFAR10上有十类,所以平均来看Li约等于log(10) = 2.3。如果score都是随机很小的数,近似意义上最后每一个类得到的。所以一开始能估计出loss的大概值是很有用的。注意到每一行完成一类的分类。原创 2023-05-12 00:27:06 · 366 阅读 · 0 评论 -
计算机视觉的深度学习 Lecture2 笔记 EECS 498.008
要对图上的蓝点进行分类,每多一个维度,所需要样本量就要翻几倍,指数增长之后没办法收集到如此多的数据。学过数学分析的会给出一堆不能拟合的奇奇怪怪的函数。不过这样可能会导致最后才发现算法的效果不好。),这根本不可能,而且这还是非常小的数据。的灰度图像,就需要数据集达到极大的数量来训练原创 2023-05-12 00:24:56 · 407 阅读 · 0 评论