Deep Learning Tutorial
Bread Sir
记录算法之路
展开
-
深度学习基础知识之正则化
背景知识1 训练误差与泛化误差训练误差,顾名思义,就是在训练集上表现出的误差,而后者是通过训练得到的模型在任意一个测试集上表现出的误差的期望,但通常直接通过测试集上的误差即(测试误差)来近似。假设学习到的模型是 Y=f^(X)Y = \hat{f}(X)Y=f^(X),则训练误差 是模型关于训练数据集的平均损失:Remp(f^)=1N∑i=1NL(yi,f^(xi)),N为训练样本容量...原创 2019-11-21 10:56:44 · 170 阅读 · 0 评论 -
初始卷积神经网络CNN
学习深度学习一定要学习CNN,而CNN的发展非常快,从 LeNet 到 AlexNet 到 VGG 到 GoogleNet 再到 ResNet 再到 DenseNet,学习这些经典的网络首先需要了解卷积神经网络的相关知识。下图就是LeNet的网络结构,如果你不懂CNN,是完全不明白这到底是个什么东西的。Why CNN首先,我们使用神经网络可以实现回归求解,图片的识别当然也是可以使用神经网...原创 2019-10-24 15:09:58 · 235 阅读 · 0 评论 -
《Deep Learnning Tutorial》笔记(三)
上两篇博文都是对深度学习进行一个简要的了解,见识一下这个新的世界。接下来继续学习。Why Deep?先看一个表格: 我们可以发现,当层X的size越大,出错率越低。所以参数越多,训练效果越好,这是不足为奇的!!有一个普遍定理: 任何连续的函数 f:RN→RMf:R^N→R^M 可以通过一个带有一层隐藏层的网络实现(这个层有足够多的隐藏神经元)。当然也可以通过多层隐藏层实现。那么我们试想一下神经网原创 2017-08-16 20:38:49 · 437 阅读 · 0 评论 -
浅谈神经网络
首先附上一大牛的博客 http://colah.github.io/ 知乎上也有一些大牛的回答:https://www.zhihu.com/question/22553761神经元它是神经网络的基本处理单元。下面一部分是转载的:地址如下:https://yjango.gitbooks.io/superorganism/content/shen_jing_yuan_ben_zhi.html[转载]神原创 2017-07-19 20:18:22 · 1277 阅读 · 0 评论 -
《Deep Learnning Tutorial》笔记(一)
Deep Learnning Tutorial 是李宏毅教授的一个ppt,其实可以当做一篇文章,接下来就记录一下读它的笔记。很有意思。Introduction of Deep LearningMachine Learning ≈≈ Looking for a Function。也就是找到一个函数,就能进行深度学习。比如: 可以把一张小狗狗的照片通过一个函数识别出照片中就是小狗狗。 一个函数就够了原创 2017-08-11 09:46:37 · 957 阅读 · 0 评论 -
《Deep Learnning Tutorial》笔记(二)
上一节简要学习了什么是神经网络,大体上知道了深度学习的一个框架。这一节继续学习深度学习第二步goodness of function。Training Data这个Data不仅仅需要判断的数据,还需要与之对应着的标签(target)。比如给一些图片,并且还给这些图片对应的是什么,有小狗狗还有小猫咪。Learning Target训练的目的就是要将输入数据经过某函数得到的输出数据(output)与对应原创 2017-08-12 11:48:05 · 531 阅读 · 0 评论