我现在有很多的x和y值,所以问题就是如何通过这些x和y值来得到A和B的值?
代码test.py如下:
import numpy as np #这是Python的一种开源的数值计算扩展,非常强大
import tensorflow as tf #导入tensorflow
##构造数据##
x_data=np.random.rand(100).astype(np.float32) #随机生成100个类型为float32的值
y_data=x_data*0.1+0.3 #定义方程式y=x_data*A+B
##-------##
##建立TensorFlow神经计算结构##
weight=tf.Variable(tf.random_uniform([1],-1.0,1.0))
biases=tf.Variable(tf.zeros([1]))
y=weight*x_data+biases
##-------##
loss=tf.reduce_mean(tf.square(y-y_data)) #判断与正确值的差距
optimizer=tf.train.GradientDescentOptimizer(0.5) #根据差距进行反向传播修正参数
train=optimizer.minimize(loss) #建立训练器
init=tf.global_variables_initializer() #初始化TensorFlow训练结构
sess=tf.Session() #建立TensorFlow训练会话
sess.run(init) #将训练结构装载到会话中
for step in range(400): #循环训练400次
sess.run(train) #使用训练器根据训练结构进行训练
if step%20==0: #每20次打印一次训练结果
print(step,sess.run(weight),sess.run(biases)) #训练次数,A值,B值
执行pyhton 1.py,结果如下:
0 [0.53761494] [0.09637235]
20 [0.1971053] [0.25049835]
40 [0.12194208] [0.28881454]
60 [0.10495806] [0.29747254]
80 [0.10112034] [0.2994289]
100 [0.10025313] [0.29987097]
120 [0.10005721] [0.29997087]
140 [0.10001294] [0.29999343]
160 [0.10000292] [0.29999852]
180 [0.10000066] [0.29999968]
200 [0.10000016] [0.29999992]
220 [0.10000011] [0.29999995]
240 [0.10000011] [0.29999995]
260 [0.10000011] [0.29999995]
280 [0.10000011] [0.29999995]
300 [0.10000011] [0.29999995]
320 [0.10000011] [0.29999995]
340 [0.10000011] [0.29999995]
360 [0.10000011] [0.29999995]
380 [0.10000011] [0.29999995]
解释:
tf.reduce_max,tf.reduce_mean
求最大值tf.reduce_max(input_tensor, reduction_indices=None, keep_dims=False, name=None)
求平均值tf.reduce_mean(input_tensor, reduction_indices=None, keep_dims=False, name=None)
参数1--input_tensor:待求值的tensor。
参数2--reduction_indices:在哪一维上求解。
参数(3)(4)可忽略
# 'x' is [[1., 2.]
# [3., 4.]]
x是一个2维数组,分别调用reduce_*函数如下:
首先求平均值:
tf.reduce_mean(x) ==> 2.5 #如果不指定第二个参数,那么就在所有的元素中取平均值
tf.reduce_mean(x, 0) ==> [2., 3.] #指定第二个参数为0,则第一维的元素取平均值,即每一列求平均值
tf.reduce_mean(x, 1) ==> [1.5, 3.5] #指定第二个参数为1,则第二维的元素取平均值,即每一行求平均值
class tf.train.GradientDescentOptimizer
使用梯度下降算法的Optimizer,还有其它的算法,如:class tf.train.AdadeltaOptimizer使用Adadelta算法的Optimizer,class tf.train.AdagradOptimizer使用Adagrad算法的Optimizer,class tf.train.MomentumOptimizer使用Momentum算法的Optimizer,class tf.train.AdamOptimizer使用Adam 算法的Optimizer,class tf.train.FtrlOptimizer使用FTRL 算法的Optimizer,class tf.train.RMSPropOptimizer使用RMSProp算法的Optimizer。
_init__(learning_rate, use_locking=False,name=’GradientDescent’)
作用:创建一个梯度下降优化器对象
参数:
learning_rate: A Tensor or a floating point value. 要使用的学习率
use_locking: 要是True的话,就对于更新操作(update operations.)使用锁
name: 名字,可选,默认是”GradientDescent”.
optimizer.minimize
然后,可以设置 一个用于记录全局训练步骤的单值。以及使用minimize()操作,该操作不仅可以优化更新训练的模型参数,也可以为全局步骤(global step)计数。与其他tensorflow操作类似,这些训练操作都需要在tf.session会话中进行
tf.random_uniform
tf.random_uniform((4, 4), minval=low,maxval=high,dtype=tf.float32)))返回4*4的矩阵,产生于low和high之间,产生的值是均匀分布的。例:
import tensorflow as tfimport numpy as np
with tf.Session() as sess:
print(sess.run(tf.random_uniform(
(4, 4), minval=-0.5,
maxval=0.5,dtype=tf.float32)))
输出:[[ 0.23706067 0.42579055 0.16444612 0.12134457]
[ 0.14245582 0.32224071 -0.3107301 0.29911542]
[-0.03472292 -0.37411058 -0.22680879 0.21656895]
[-0.37798405 0.31725729 -0.17690742 -0.02995324]]
tf.zeros
创建一个所有的参数为0的tensor对象, tf.zeros(shape, dtype=tf.float32, name=None)
参数:
shape: 用于表示维度,通常为一个int32类型数组,或者一个一维(1-D)的tf.int32数字.注意不能直接使用数字
dtype: 所要创建的tensor对象的数据类型
name: 一个该操作的别名(可选的).
data = tf.zeros([8], dtype=tf.float16)
p.printValue("sess.zeros([1], dtype=tf.float16)", data)
输出:
# sess.zeros([1], dtype=tf.float16) : Tensor("zeros_3:0", shape=(8,), dtype=float16) -
[ 0. 0. 0. 0. 0. 0. 0. 0.]