CS231n
文章平均质量分 70
快乐成长吧
努力努力再努力!
展开
-
CS231n_Lecture5_卷积神经网络
构成卷积神经网络(CNN)的基本层: 1卷积层: 激活函数(sigmoid、tanh、relu.、Leaky Relu 、pRelu、Maxout...一般用后者多,不再用sigmoid) 各个函数的优点和区别,详见: CS231n课程笔记翻译:神经网络笔记 1(上) | 课程原文 https://blog.csd...原创 2018-09-01 19:20:42 · 247 阅读 · 0 评论 -
CS231n_Lecture6_训练神经网络上(激活函数)
在深度学习中,信号从一个神经元传入到下一层神经元之前是通过线性叠加来计算的,而进入下一层神经元需要经过非线性的激活函数,继续往下传递,如此循环下去。由于这些非线性函数的反复叠加,才使得神经网络有足够的capacity来抓取复杂的特征。 为什么要使用非线性激活函数?答:如果不使用激活函数,这种情况下每一层输出都是上一层输入的线性函数。无论神经网络有多少层,输出...原创 2018-09-01 18:43:10 · 628 阅读 · 0 评论 -
CS231n官方笔记的链接整理
原文链接:贺完结!CS231n官方笔记授权翻译总集篇发布 CS231n的全称是CS231n: Convolutional Neural Networks for Visual Recognition,即面向视觉识别的卷积神经网络。该课程是斯坦福大学计算机视觉实验室推出的课程。需要注意的是,目前大家说CS231n,大都指的是2016年冬季学期(一月到三月)的最新版本。以下是转自原博客的一些链接...转载 2018-08-25 16:48:41 · 264 阅读 · 0 评论 -
CS231n_Lecture1_计算机视觉概述、计算机视觉历史背景
来自 https://blog.csdn.net/xiaoqu001/article/details/79350364斯坦福大学的CS231n课程的主要内容是计算机视觉(computer vision),或者说是图像识别( visual recognition),算法主要关注CNN(convolutional neural network)或者说泛指的深度学习。计算机视觉是一门很强的交叉学科,...转载 2018-08-25 19:36:34 · 2305 阅读 · 0 评论 -
CS231n_Lecture2_图像分类(数据驱动方法、k最近邻算法、线性分类1)
CS231n课程笔记翻译:图像分类笔记(上) | 课程原文 CS231n课程笔记翻译:图像分类笔记(下) CS231n课程笔记翻译:线性分类笔记(上) | 课程原文小结简要说来:介绍了图像分类问题。在该问题中,给出一个由被标注了分类标签的图像组成的集合,要求算法能预测没有标签的图像的分类标签,并根据算法预测准确率进行评价。 介绍了一个简单的图像分类器:最近邻分类器(Nearest ...转载 2018-08-26 01:33:52 · 916 阅读 · 0 评论 -
CS231n_Lecture4_介绍神经网络(Backpropagation、Neural Networks)
可以看:CS231n课程笔记翻译:神经网络笔记 1(上) | 课程原文 CS231n课程笔记翻译:神经网络笔记 1(下) CS231n课程笔记翻译:神经网络笔记 2 | 课程原文 CS231n课程笔记翻译:神经网络笔记 3(上) | 课程原文 CS231n课程笔记翻译:神经网络笔记 3(下)作者:zhwhong链接:https://www.jianshu.com/p/182ba...原创 2018-08-31 20:24:07 · 284 阅读 · 0 评论 -
CS231n_Lecture3_图像分类(损失、优化函数)
感谢:https://marvae.github.io/archives/CS231n课程笔记翻译:线性分类笔记(中) CS231n课程笔记翻译:线性分类笔记(下)在本节课中: 将损失函数比作了一个高维度的最优化地形,并尝试到达它的最底部。最优化的工作过程可以看做一个蒙着眼睛的徒步者希望摸索着走到山的底部。在例子中,可见SVM的损失函数是分段线性的,并且是碗状的。 提出了迭...转载 2018-08-28 12:46:00 · 5264 阅读 · 0 评论