TensorFlow学习笔记
微丶念
所谓的不感兴趣,仅仅只是自己没有做好而已。
展开
-
TensorFlow学习笔记(三)
本文介绍了在使用tf.div和tf.sqrt过程中遇到的数据类型的问题以及解决方法。原创 2017-10-30 14:15:17 · 2098 阅读 · 0 评论 -
TensorFlow学习笔记(五)
模型保存与载入 在深度学习或强化学习中,我们训练一个模型常常需要较长的时间,因而我们萌生了想要将模型记录下来的想法,如何做到呢?下面我们来学习两种方法解决这一问题,参考自TensorFlow Programmers' Guide。 1.最最最最基本的方法 利用tf.train.Saver类实现模型的保存与载入。tf.train.Saver类的构造函数为所有...原创 2017-11-03 09:14:09 · 348 阅读 · 0 评论 -
TensorFlow学习笔记(六)
本文介绍了name_scope与variable_scope。原创 2017-12-19 19:30:50 · 827 阅读 · 0 评论 -
TensorFlow学习笔记(二)
1.tf.reduce_mean() TensorFlow提供了大量的规约计算函数,比如tf.reduce_max(),tf.reduce_min(),tf.reduce_sum()等,这里我们仔细看一下tf.reduce_mean()。 函数定义如下: tf.reduce_mean(input_tensor,reduction_indices=None,...原创 2017-10-26 14:54:26 · 2230 阅读 · 0 评论 -
TensorFlow学习笔记(一)
本文主要介绍了Gradient Computation、Processing gradients before applying them、tf.assign、关于tf.gradients()函数的详解。原创 2017-10-24 17:30:55 · 2507 阅读 · 0 评论 -
关于tf.distributions的那些事儿
引子       在学习各类Machine Learning方法时,免不了要与“分布”打交道。我们有时候需要计算某个分布的熵,有时候需要计算两个分布之间的交叉熵或KL散度。当然,这可以通过使用Numpy中的numpy.random.normal之类的函数来实现,但是我们更希望能够按照TensorFlow计算图的形式来实现,这原创 2018-10-26 09:56:03 · 9330 阅读 · 1 评论