用代码来实现一个简单的tensorflow的结构用来预测一个线性方程y = 0.1x + 0.3的参数。
首先需要导入tensorflow 和 numpy两个包
import tensorflow as tf
import numpy as np
导入之后我们进行的第一步是建立数据,这里随机生成100个x_data,根据实际参数生成y_data:
x_data = np.random.rand(100).astype(np.float32)
y_data = x_data * 0.1 + 0.3
接下来就是建立tensorflow结构的过程了,首先生成我们要求解的两个参数Weights和biases,Weights我们定义为一个随机数列,初始值范围为[-1, 1], biases定义为一个初始值为0的数列。
Weights = tf.Variable(tf.random_uniform([1], -1.0, 1.0))
biases = tf.Variable(tf.zeros([1]))
然后我们定义预测的y值,损失函数和optimizer, 损失函数指的是预测值与实际值之间的差别,在一开始损失函数一定很大,神经网络的重点就是通过优化器来减少误差,提升参数的准确度。这里用平方差值作为损失函数,用gradient descent作为优化器
y = Weights*x_data + biases
loss = tf.reduce_mean(tf.square(y-y_data))
optimizer = tf.train.GradientDescentOptimizer(0.5)
train = optimizer.minimize(loss)
定义完所有的参数和计算方法后要初始化所有的变量
init = tf.global_variables_initializer()
接下来很重要的一步是定义Session并且激活init,只有这样我们的神经网络才能开始训练
sess = tf.Session()
sess.run(init)
到这里为止我们的神经网络已经完成了,但是为了我们能看到神经网络训练的结果,我们需要将训练中间的参数打印出来。下面是每隔20步输出weights和biases的值
for step in range(201):
sess.run(train)
if(step % 20) == 0:
print(step, sess.run(Weights), sess.run(biases))
运行结果如下:
从输出结果可以看到,开始时weights和biases距离真实值都比较大,当训练到最后时,weights已经很接近0.1,biases也很接近0.3了。
这样一个简单的用tensorflow构建神经网络过程就完成了。
reference: https://morvanzhou.github.io/tutorials/machine-learning/tensorflow/2-1-structure/