![](https://img-blog.csdnimg.cn/20200731215251227.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
CS231n课程笔记
记录CS231n的笔记
PyBigStar
Good Good Study, Day Day Up!
展开
-
6.1 训练神经网络(上)——批量归一化
训练神经网络(上)——批量归一化Batch NormalizationBabysitting the learning ProcessStep1: Preprocess the dataStep2: Choose the architecture of networkStep3: Double check that the loss is reasonableSummary原创 2020-09-08 22:42:36 · 263 阅读 · 0 评论 -
6 训练神经网络(上)——激活函数、数据预处理
训练神经网络(上)——激活函数Sigmoidσ(x)=11+e−x\sigma(x) = \frac{1}{1 + e^{-x}}σ(x)=1+e−x1Squashes numbers to range [0,1]Historically popular3 problems:Saturated neurons kill the gradientSigmoid outputs are not zero-centeredexp() is a bit compute expensive原创 2020-08-16 15:39:45 · 252 阅读 · 0 评论 -
5.1-5.2 卷积神经网络——卷积和池化
卷积神经网络——卷积和池化Convolution Layer可以保全输入的空间结构卷积神经网络越深所学习到的特征越高阶卷积层输出大小公式:size=(N+2P−F)/stride+1size = (N + 2P - F) / stride + 1size=(N+2P−F)/stride+11×11 \times 11×1 convolution layers make perfect sense视觉之外的卷积神经网络5×55 \times 55×5 filters -> 5×55原创 2020-08-14 16:02:38 · 108 阅读 · 0 评论 -
4 介绍神经网络——反向传播
介绍神经网络——反向传播文章目录介绍神经网络——反向传播1. Computational graphs2. Summary1. Computational graphs TensorFlow和Torch这些框架的自动求导就是基于计算图, 张量作为边在计算图中流动,而算子或者操作符作为节点。 下面是一个复杂一点的例子: 主要就是记住 [localgradient]×[upstreamgradient][local gradient] \times [upstream gradient][localg原创 2020-08-12 15:47:46 · 254 阅读 · 0 评论 -
3. 损失函数和优化介绍
损失函数和优化介绍1. Loss functionA loss function tells how good our current model classifier is.1.1 Multiclass SVM lossLi=∑j≠yimax(0,sj−syi+Δ)L_i = \sum_{j \neq y_i}max(0, s_j - s_{y_i} + \Delta) Li=j=yi∑max(0,sj−syi+Δ)notation: s=f(xi,W),Δs = f(x_i原创 2020-08-04 10:54:53 · 226 阅读 · 0 评论 -
2.2 图像分类-线性分类
图像分类-线性分类Parametric Approach 训练的时候得到正确的参数,预测的时候用训练好的参数进行预测,这样预测的时候就能十分迅速。原创 2020-08-03 10:44:34 · 394 阅读 · 0 评论 -
2.1 图像分类-K最近邻算法
2.1 图像分类-K最近邻算法Hyperparamters: K一般来说K选择的越大就会使得决策边界越平滑。Hyperparamters: Distance MetricL1(Manhattan) distance = ∑p∣I1p−I2p∣\sum_p|I_1^p - I_2^p|∑p∣I1p−I2p∣L2(Euclidean) distance = ∑p(I1p−I2p)2\sqrt{\sum_p(I_1^p - I_2^p)^2}∑p(I1p−I2p)2PS:当你旋转坐标原创 2020-08-03 09:51:42 · 181 阅读 · 0 评论 -
2 图像分类-数据驱动方法
图像分类-数据驱动方法Image ClassificationThe ProblemSemantic GapViewpoint variationIlluminationDeformation原创 2020-08-03 08:56:18 · 171 阅读 · 0 评论 -
1.2 课程介绍-课程后勤
课程介绍-课程后勤 这门课主要集中解决计算机视觉中的图像分类问题。当然也会讨论一些其他的计算机视觉问题:Object detectionAction classificationImage captioning CNN的前身可以追溯到1998(Le Cun et al.)。12年才崭露头角的原因就是那个时候才有了更高的算力。本课程总共有三次作业需要完成。...原创 2020-08-01 14:54:31 · 134 阅读 · 0 评论 -
1.1 课程介绍-历史背景
课程介绍-历史背景这节课主要讲了计算机视觉的发展历史。有几个我感觉比较重要的节点:Image SegmentationFace DetectionSIFT & Objection Recognition(一个比较有深渊意义的工作)Spatial Pyramid Matching(场景的识别)Histogram of Gradient(HOG, 可以用来做Human recognition)PASCAL Visual Object Challenge(20 object categ原创 2020-07-31 22:41:26 · 179 阅读 · 0 评论 -
1 课程介绍
1 课程介绍 上图是斯坦福其他与CS231n有关系的公开课。这个CS231n学完了之后可以继续学一下CS231a。原创 2020-07-31 22:04:32 · 102 阅读 · 0 评论