深度学习
突破黎明前的黑暗
这个作者很懒,什么都没留下…
展开
-
深度神经网络
神经网络在20世纪七八十年代很火,但随后人们不再使用它们。首要问题是运行多个神经网络比其他算法对计算能力有更高的要求,超出了当时计算机的能力范围。其次是训练神经网络所需要工作量很大。虽然那时反向传播算法已经研制出来,处理大型神经网络仍存在问题,需要大量的训练才能确定权重。近年来计算能力提升和训练算法的改进使得在现有计算能力的情况下,能够顺利的完成大型神经网络的训练。至少包含两层隐含层的转载 2017-10-28 21:05:56 · 442 阅读 · 0 评论 -
人工神经网络
神经网络算法最初是根据人类大脑的工作机制设计的。神经网络由一系列相互连接的神经元组成。每个神经元都是一个简单的函数,接收一定输入,给出相应输出。神经元可以使用任何标准函数来处理数据,比如线性函数,这些函数统称为激活函数。一般来说,神经网络学习算法能正常工作,激活函数应当是可导和光滑的。常用的激活有逻辑斯谛函数。每个神经元接收几个输入,根据这几个输入,计算输出。这样一个个神经元连转载 2017-10-20 22:08:33 · 383 阅读 · 0 评论 -
使用Softmax回归模型训练识别MNIST数据
input_data.py:from __future__ import absolute_importfrom __future__ import divisionfrom __future__ import print_functionimport gzipimport osimport tempfileimport numpyimport urllibfr原创 2017-11-07 21:34:39 · 811 阅读 · 0 评论 -
反向传播算法
反向传播算法的工作机制为对预测错误的神经元施以惩罚。从输出层开始,向上层次查找预测错误的神经元,微调这些神经元输入值的权重,以达到修复输出错误的目的。神经元之所以给出错误的预测,原因在于它前面为其提供输入的神经元,更确切地说是由两个神经元之间的权重及输入值决定的。我们可以尝试对权重进行微调。每次调整的幅度取决于以下两个方面:神经元各边权重的误差函数的偏导数和一个叫学习速率的参数(通常使用很原创 2017-10-23 22:20:05 · 260 阅读 · 0 评论 -
用转换器抽取特征
1、特征抽取a、在模型中表示事实只有先把现实用特征表示出来,才能借助数据挖掘的力量找到问题的答案。特征可用于建模,模型以机器挖掘算法能够理解的近似的方式来表示现实。因此可以说,模型描述了客观世界中对象的某些方面,是它的以简化版本。特征选择的另一个优点在于:降低真实世界的复杂度,模型比现实更容易操纵。实体的复杂性对目前的算法而言过于复杂,我们退而求其次,使用更为简洁的模型来表示实物。简化要以转载 2017-10-31 21:42:48 · 311 阅读 · 0 评论