TensorFlow
brucewong0516
这个作者很懒,什么都没留下…
展开
-
【TensorFlow】激活函数(Activation Functions)原理解析(十二)
神经网络结构的输出为所有输入的加权和,这导致整个神经网络是一个线性模型。如果将每一个神经元的输出通过一个非线性函数,那么整个神经网络的模型也就不再是线性的了,使得神经网络可以更好地解决较为复杂的问题。这个非线性函数也就是**激活函数**。原创 2017-12-18 17:33:22 · 11627 阅读 · 0 评论 -
【TensorFlow】神经网络参数与变量(四)
TensorFlow神经网络参数与变量原创 2017-12-12 00:20:39 · 1564 阅读 · 0 评论 -
【TensorFlow】神经网络模型训练及完整程序实例(五)
TensorFlow神经网络模型训练及完整程序实例原创 2017-12-12 14:25:17 · 9158 阅读 · 0 评论 -
【TensorFlow】官方MNIST数据集神经网络实例详解(六)
根据MNIST数据实现完整的TensorFlow程序,构图逻辑是:先定义参数、接着定义神经网络模型,最后训练。原创 2017-12-12 21:57:00 · 3026 阅读 · 0 评论 -
【TensorFlow】框架学习笔记tensor(一)
简要阐述tensorflow基本框架原创 2017-12-08 15:31:18 · 630 阅读 · 0 评论 -
【TensorFlow】变量管理tf.get_variables/tf.Variable/tf.variable_scope的应用(七)
TensorFlow变量管理tf.get_variables/tf.Variable/tf.variable_scope的应用原创 2017-12-13 13:12:10 · 6505 阅读 · 5 评论 -
【TensorFlow】模型持久化tf.train.Saver—上(八)
TensorFlow模型持久化以及tf.train.Saver的应用原创 2017-12-14 00:20:45 · 649 阅读 · 0 评论 -
【TensorFlow】计算图graph的使用学习笔记(二)
TensorFlow程序一般分为两段,一段是定义计算图的计算,第二阶段是执行计算。原创 2017-12-11 17:43:24 · 1563 阅读 · 0 评论 -
【TensorFlow】关键字global_step使用(十)
global_step经常在滑动平均,学习速率变化的时候需要用到,这个参数在 tf.train.GradientDescentOptimizer(learning_rate).minimize(loss, global_step=global_steps)里面有,系统会自动更新这个参数的值,从1开始。原创 2017-12-14 12:03:37 · 1621 阅读 · 0 评论 -
【TensorFlow】模型持久化tf.train.Saver—下(九)
tf.train.Saver类也支持在保存和加载时给变量重命名,声明Saver类对象的时候使用一个字典dict重命名变量即可,{“已保存的变量的名称name”: 重命名变量名},saver = tf.train.Saver({“v1”:u1, “v2”: u2})即原来名称name为v1的变量现在加载到变量u1(名称name为other-v1)中。原创 2017-12-15 16:16:57 · 1517 阅读 · 0 评论 -
【TensorFlow】会话session(三)
会话拥有并管理TensorFlow程序运行的所有资源,当所有程序运行结束后需要关闭会话来帮助系统回收资源,否则就可能出现资源泄露的问题。原创 2017-12-11 21:35:36 · 743 阅读 · 0 评论 -
【TensorFlow】神经网络优化MNIST数据最佳实践(十一)
本次结合变量管理机制和模型持久化机制,并且将训练和测试分为两个独立的模块,这样使得每个模块更加灵活,本次也将inference前向传播过程抽象为函数库,方便调用。原创 2017-12-17 13:36:21 · 946 阅读 · 0 评论 -
【TensorFlow】优化方法optimizer总结(SGD,Adagrad,Adadelta,Adam,Adamax,Nadam)解析(十三)
本文仅对一些常见的优化方法进行直观介绍和简单的比较,主要是一阶的梯度法,包括SGD, Momentum, Nesterov Momentum, AdaGrad, RMSProp, Adam。 其中SGD,Momentum,Nesterov Momentum是手动指定学习速率的,而后面的AdaGrad, RMSProp, Adam,就能够自动调节学习速率。原创 2017-12-19 01:07:51 · 34303 阅读 · 2 评论