Tensorflow用法简介
一个标准的模型结构分为输入、中间节点、输出三大部分,如何让这三个部分连通起来学习规则并进行计算,这便是Tensorflow框架所做的事。Tensorflow将中间节点及节点之间的运算关系(OPS)定义在自己内部的一个“图”内,具体的运算全部通过一个“会话(session)”进行。在会话中,任何一个节点都可以通过会话的run函数进行计算,得到该节点的数据值。
“图”是静态的,它只是将关系搭建在一块,不会进行任何运算;而会话session是动态的,只有启动会话才会将数据流向“图”,并按照图中的关系运算并将结果从图中流出。
模型内部的数据流向分为正向和反向(其实也就是BP神经网络):
正向即从数据输入开始,依次进行各节点定义的运算,一直运算到输出。
反向,只有在训练场景才会用到。先从最后一个输出节点开始,计算预期结果和真实输出的误差,这样会形成一个用学习参数表示误差的方程,然后对方程中的每个参数求导,得到其梯度修正值,同时反推出上一层的修正值,这样一直往前推,就传到正向的第一个节点了。
运行代码
以下是模拟y=
深度学习笔记(一)逻辑回归拟合二维数据学习Tensorflow开发
最新推荐文章于 2024-04-18 12:28:28 发布