创建一个一行两列的矩阵
matrix1 = tf.constant([[3., 3.]])
创建一个两行一列的矩阵
matrix2 = tf.constant([[2.],[2.]])
矩阵相乘
tf.matmul(matrix1, matrix2)
启动默认图.
sess = tf.Session()
result = sess.run(product)
### 任务完成, 关闭会话.
sess.close()
创建一个变量列表,(变量维护图的中间状态)
tf.Variable([1.0, 2.0])
创建一个常量列表
tf.constant([3.0, 3.0])
使用初始化器 initializer op 的 run() 方法初始化 ‘x’
x.initializer.run()
增加一个减法 sub op, 从 ‘x’ 减去 ‘a’. 运行减法 op, 输出结果
sub = tf.sub(x, a)
计算state 和 one 的值
new_value = tf.add(state, one)
将 new_value 的值 赋给 state (state=new_value)
update = tf.assign(state, new_value)
ouput = tf.multiply(input1, input2)
生成随机数,数据格式是 float 32 的形式
x_data = np.random.rand(100).astype(np.float32)
定义Wx_plus_b, 即神经网络未激活的值(预测的值)。其中,tf.matmul()是矩阵的乘法。
Wx_plus_b = tf.matmul(inputs,Weights)
如果定义 Variable, 就一定要 initialize 激活变量 (此时没有激活只有 sess.run 才会激活)
init = tf.global_variables_initializer()
建立一个优化器, 减少神将网络的误差 GradientDescentOptimizer 是最基础的优化器, 0.5 为学习效率(0-1),
optimizer = tf.train.GradientDescentOptimizer(0.5)
train = optimizer.minimize(loss)