机器学习
文章平均质量分 57
WangBocz
这个作者很懒,什么都没留下…
展开
-
TuneLayer 面向研究人员和软件工程师的深度学习和增强学习库
TLayer 的前身是 TensorLayer 它是为科学家和工程师而设计的一款基于Google TensorFlow开发的深度学习与增强学习库。使用 TLayer 可以大大加快算法实验和产品开发速度。它非常容易拓展和修改,并提供大量的官方例子程序,方便开发者快速找到适合自己项目的例子。 官方文档 不仅仅描述如何使用 TLayer API,还包含了大量的教程,覆盖不同的神经网翻译 2016-08-03 03:00:11 · 1753 阅读 · 0 评论 -
Word2vec 快熟实现之 TuneLayer (TensorLayer) 和 TensorFlow 篇
所有训练的过程,都可以抽象成 cost。TensorLayer 把 word2vec 的cost,通过一个 Layer Class 抽象出来,大大简化了代码的难度。 Word2vecEmbeddingInputlayer 输出的cost,是根据向 skip-gram 和 NCE 给定特定的 number of negative samples, vocabulary size 和 embeddi转载 2016-07-28 06:19:11 · 2897 阅读 · 0 评论 -
如何解决 TuneLayer read the docs API 不可见问题
据今天为止(2016年7月),帝国理工还没有正式发布 TensorLayer ,但好多人已经在用了。估计很多人会遇到和我一样的问题,我们在 github 和 read the docs 都能看到 TensorLayer,下载也能使用,所有 tutorial 代码都可以使用! 但我们会发现 read the docs 里除了 install,tutorial 之外,所有 API 文档都没有描述(可原创 2016-07-28 06:03:28 · 1287 阅读 · 0 评论 -
dropout 的快熟实现笔记 --tensorlayer
dropout 是对每个神经元输出做置0处理。对于layer,我们可以这样实现。 network = tl.InputLayer(x, name='input_layer') network = tl.DropoutLayer(network, keep=0.8, name='drop1') network = tl.DenseLayer(network, n_units=800, ac转载 2016-07-28 06:01:33 · 1516 阅读 · 0 评论 -
如何在 MNIST 实现 CNN (tensorlayer, TuneLayer 实现)
卷积神经网络最简单的例子莫过于对MNIST做分类了。MNIST 每个图片有28乘以28个像素,我们可以用 4D placeholder 作为输入。 x = tf.placeholder(tf.float32, shape=[None, 28, 28, 1]) y_ = tf.placeholder(tf.int64, shape=[None,]) 然后如下使用2D CNN filt转载 2016-07-28 05:58:06 · 2774 阅读 · 0 评论 -
TuneLayer 实现 stacked denoising autoencoder
theano官网有实现 denoising autoencoder 的class,但训练 autoencoder 只是初始化步骤。 最后我们要把 autoencoder 叠加起来,fine tune 。 tensorlayer 有 ReconLayer,专门对 DenseLayer 进行预训练的。使用方法如下。 # Define the network network = tl.layers转载 2016-07-28 05:52:26 · 1857 阅读 · 0 评论 -
如何选择深度学习框架 TensorFlow/Torch/Mxnet/Theano
作者:董豪 链接:https://www.zhihu.com/question/46587833/answer/114673766 来源:知乎 著作权归作者所有,转载请联系作者获得授权。 要因人而异。回顾DL库的发展历程,可以看到从当年的caffe,theano到现在的这几种库,每一个时期都有不同的用户群。 caffe,theano 这些库当年都是在大学里开发的,主要目的是为了做研究转载 2016-08-03 23:24:45 · 4818 阅读 · 0 评论