tensorflow
文章平均质量分 63
WangBocz
这个作者很懒,什么都没留下…
展开
-
TuneLayer 面向研究人员和软件工程师的深度学习和增强学习库
TLayer 的前身是 TensorLayer 它是为科学家和工程师而设计的一款基于Google TensorFlow开发的深度学习与增强学习库。使用 TLayer 可以大大加快算法实验和产品开发速度。它非常容易拓展和修改,并提供大量的官方例子程序,方便开发者快速找到适合自己项目的例子。官方文档 不仅仅描述如何使用 TLayer API,还包含了大量的教程,覆盖不同的神经网翻译 2016-08-03 03:00:11 · 1751 阅读 · 0 评论 -
Word2vec 快熟实现之 TuneLayer (TensorLayer) 和 TensorFlow 篇
所有训练的过程,都可以抽象成 cost。TensorLayer 把 word2vec 的cost,通过一个 Layer Class 抽象出来,大大简化了代码的难度。Word2vecEmbeddingInputlayer 输出的cost,是根据向 skip-gram 和 NCE 给定特定的 number of negative samples, vocabulary size 和 embeddi转载 2016-07-28 06:19:11 · 2888 阅读 · 0 评论 -
如何解决 TuneLayer read the docs API 不可见问题
据今天为止(2016年7月),帝国理工还没有正式发布 TensorLayer ,但好多人已经在用了。估计很多人会遇到和我一样的问题,我们在 github 和 read the docs 都能看到 TensorLayer,下载也能使用,所有 tutorial 代码都可以使用!但我们会发现 read the docs 里除了 install,tutorial 之外,所有 API 文档都没有描述(可原创 2016-07-28 06:03:28 · 1283 阅读 · 0 评论 -
dropout 的快熟实现笔记 --tensorlayer
dropout 是对每个神经元输出做置0处理。对于layer,我们可以这样实现。network = tl.InputLayer(x, name='input_layer')network = tl.DropoutLayer(network, keep=0.8, name='drop1')network = tl.DenseLayer(network, n_units=800, ac转载 2016-07-28 06:01:33 · 1511 阅读 · 0 评论 -
如何在 MNIST 实现 CNN (tensorlayer, TuneLayer 实现)
卷积神经网络最简单的例子莫过于对MNIST做分类了。MNIST 每个图片有28乘以28个像素,我们可以用 4D placeholder 作为输入。x = tf.placeholder(tf.float32, shape=[None, 28, 28, 1])y_ = tf.placeholder(tf.int64, shape=[None,])然后如下使用2D CNN filt转载 2016-07-28 05:58:06 · 2770 阅读 · 0 评论 -
TensorLayer (TuneLayer) 实现 DropConnect
DropConnect 是 Hinton DropOut 之后出现的一种 Regularization 方法,相比DropOut的好处是,它在模型较小的情况下依然能保证准确度。苦于网络上很难找到python例子,这里贴出一个用 TensorLayer 实现的代码,以供参考。Paper of DropConnectimport tensorflow as tfimpo原创 2016-07-26 04:50:46 · 3468 阅读 · 0 评论 -
TensorLayer : 最新深度学习与增强学习库
TensorLayer 是建立在 Google TensorFlow 上的深度学习(Deep Learning)与增强学习(Reinforcement Learning) 软件库。它的优势在于既能提供高级 API 以方便开发者快速搭建网络模型,也能保证与 TensorFlow 的全透明衔接。源码简洁,非常容易修改与拓展,同时适合于算法研究人员和产品开发者,加快新算法产品化。 官方例子涵盖 St原创 2016-07-25 05:19:31 · 13632 阅读 · 0 评论