deep learning
hadoove
这个作者很懒,什么都没留下…
展开
-
Deep Learning L教程(六)
本文转自深度学习论坛稀疏自编码器符号一览表下面是我们在推导sparse autoencoder时使用的符号一览表:符号含义训练样本的输入特征,.输出值/目标值. 这里 可以是向量. 在autoencoder中,.第 个训练样本输入为 时的假设输出,其中包含参数 . 该输转载 2015-02-08 19:06:01 · 752 阅读 · 0 评论 -
Window下安装Theano,并运行深度学习算法
之前由于课程的需要,要运行GPU的深度学习算法,在网上找到了一篇关于相关安装文章,折腾了几天终于在自己的电脑上跑起了程序。这里我参照我参考的安装文档,重新整理了Theano与CUDA的安装。参考文档:http://blog.csdn.net/yeyang911/article/details/16357133下载安装 AnacondaCE:AnacondaCE我安装原创 2015-10-14 21:55:59 · 881 阅读 · 0 评论 -
Deep Learning L教程(矢量化编程实现)(二)
(二)逻辑回归的向量化实现样例我们想用批量梯度上升法对logistic回归分析模型进行训练,其模型如下:让我们遵从公开课程视频与CS229教学讲义的符号规范,设 ,于是 ,, 为截距。假设我们有m个训练样本{(, ) ,...,( , )},而批量梯度上升法的更新法则是: ,这里的 是对数似然函数, 是其导函数。[注:下文的符号规范与或中的相同,详细内容转载 2015-02-20 17:25:26 · 1243 阅读 · 0 评论 -
Deep Learning L教程(矢量化编程)(一)
(一)矢量化编程当使用学习算法时,一段更快的代码通常意味着项目进展更快。例如,如果你的学习算法需要花费20分钟运行完成,这意味着你每个小时能“尝试”3个新主意。但是假如你的程序需要20个小时来运行,这意味着你一天只能“尝试”一个新主意,因为你需要花费这么长时间来等待程序的反馈。对于后者,假如你可以提升代码的效率让其只需要运行10个小时,那么你的效率差不多提升一倍。矢量化编程是提转载 2015-02-20 17:23:13 · 1208 阅读 · 0 评论 -
Deep Learning L教程(矢量化编程实现)(三)
神经网络向量化(三)在本节,我们将引入神经网络的向量化版本。在前面关于神经网络介绍的章节中,我们已经给出了一个部分向量化的实现,它在一次输入一个训练样本时是非常有效率的。下边我们看看如何实现同时处理多个训练样本的算法。具体来讲,我们将把正向传播、反向传播这两个步骤以及稀疏特征集学习扩展为多训练样本版本。Contents [hide]1转载 2015-02-20 17:28:03 · 1636 阅读 · 0 评论 -
Deep Learning L教程(四)
本文转自深度学习论坛自编码算法与稀疏性算法原理中英文对照中文译者目前为止,我们已经讨论了神经网络在有监督学习中的应用。在有监督学习中,训练样本是有类别标签的。现在假设我们只有一个没有带类别标签的训练样本集合 ,其中 。自编码神经网络是一种无监督学习算法,它使用了反向传播算法,并让目标值等于输入值,比如 。下图是一个自编码神经网络的示例。转载 2015-02-08 18:58:31 · 720 阅读 · 0 评论 -
Deep Learning L教程(斯坦福深度学习研究团队)(一)
注:本系列文章转自深度学习论坛本教程将阐述无监督特征学习和深度学习的主要观点。通过学习,你也将实现多个功能学习/深度学习算法,能看到它们为你工作,并学习如何应用/适应这些想法到新问题上。本教程假定机器学习的基本知识(特别是熟悉的监督学习,逻辑回归,梯度下降的想法)神经网络概述神经网络模型中英文对照中文译者概转载 2015-02-08 18:37:27 · 2247 阅读 · 1 评论 -
Deep Learning L教程(三)
梯度检验与高级优化算法原理中英文对照中文译者众所周知,反向传播算法很难调试得到正确结果,尤其是当实现程序存在很多难于发现的bug时。举例来说,索引的缺位错误(off-by-one error)会导致只有部分层的权重得到训练,再比如忘记计算偏置项。这些错误会使你得到一个看似十分合理的结果(但实际上比正确代码的结果要差)。因此,但从计算结果上来看,我们很难发现代码中有什么东西遗转载 2015-02-08 18:51:05 · 503 阅读 · 0 评论 -
Deep Learning L教程(二)
本文转自深度学习论坛说明:本教程将阐述无监督特征学习和深度学习的主要观点。通过学习,你也将实现多个功能学习/深度学习算法,能看到它们为你工作,并学习如何应用/适应这些想法到新问题上。本教程假定机器学习的基本知识(特别是熟悉的监督学习,逻辑回归,梯度下降的想法)反向传导算法算法原理中英文对照中文译者假设我们有转载 2015-02-08 18:45:53 · 701 阅读 · 0 评论 -
Deep Learning L教程(五)
本文转自深度学习论坛可视化自编码训练结果算法原理中英文对照中文译者训练完(稀疏)自编码器,我们还想把这自编码器学到的函数可视化出来,好弄明白它到底学到了什么。我们以在10×10图像(即n=100)上训练自编码器为例。在该自编码器中,每个隐藏单元i对如下关于输入的函数进行计算:我们将要可视化的函数,就是上面这个以2D图像为输入、并由隐藏单元i计算出转载 2015-02-08 19:02:51 · 701 阅读 · 0 评论 -
理解LSTM网络
原文:http://colah.github.io/posts/2015-08-Understanding-LSTMs/这篇文章将RNN的LSTM原理讲的比较浅显易懂,英文写的也比较好懂,先转载一下,有空翻译一下。Recurrent Neural NetworksHumans don’t start their thinking from scratch every secon转载 2016-08-16 15:04:26 · 911 阅读 · 0 评论