cs231n
文章平均质量分 81
小公举的碎碎念
这个作者很懒,什么都没留下…
展开
-
CS231n lecture 5 Convolutional Neural Networks(CNN)
ConvNet Layers卷积神经网络将输入的原始图像像素逐层转换为最终的 class scores。 我们采用以下几个主要的 layers 来构建卷积网络框架。 Convolutional Layer, Pooling Layer, and Fully-Connected Layer We will stack these layers to form a full ConvNet archi原创 2018-01-23 05:25:04 · 421 阅读 · 0 评论 -
CS231n lecture 3 Linear classification and Optimization
Linear classification现在呢针对KNN classifier的缺点,我们提出了一个更强大的方法对于图像分类问题,这个之后会扩展到神经网络。这个方法主要包含两部分: score function (map the raw data to class scores) 将原始数据映射为类的分数。 另一个是 loss function (quantify the agreement b原创 2018-01-16 01:02:38 · 288 阅读 · 0 评论 -
Lecture 6 Training Neural Network (1)
先附上一个关于 epoch, iteration的疑惑的帖子,这个人写的很好,他的其他关于深度学习的文章也值得看一看。关于iteration,epoch,batchsize的理解在看程序中遇到的关于 argparse 的疑惑。 argparse 使用tensorflow的介绍,发现自己啥也不会呀神经元each neuron performs a dot product with the input原创 2018-02-02 22:44:56 · 272 阅读 · 0 评论 -
CS231n lecture 2 Image classification
为什么CNN在90年代就发明出来了,然而到2012年才开始火起来? deep learning 需要有很强计算能力的GPU,当时还不具备deep learning 还需要有非常大的数据集,比如打了标签的图片,但是当时90年代这些资源都很匮乏。直到2010年的 datasets like Pascal and ImageNet 才有了相对大一些,质量高的带标签的数据集。认真听cs231n原创 2018-01-08 01:50:37 · 263 阅读 · 0 评论 -
Lecture 6 Training Neural Network (2)
这节很重要!!!!!Data Preprocessing我们先假设一个数据矩阵 [NxD],N 是数据的数量,比如有多少张图片,D为维数。Mean subtraction:最常用的数据预处理方法,就是用每一个数据都减去整个数据的均值,如果对于图像来说的话,是需要在rgb三个通道分别减去各自的均值。Normalization:数据的归一化,使得整体数据在一定的规模范围内。有两种方法做归一化:一种是原创 2018-02-08 17:33:14 · 323 阅读 · 0 评论