这是一个非常简单的线性回归的例子,把例子的实现步骤搞清楚,可以实现对tensorflow训练框架的基本了解。
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
#第一步:定义超参数
leraining_rate=0.01
global_step=20
#第二步:处理数据
x = np.linspace(-2, 2, 100)
y = 3 * x + np.random.randn(*x.shape) * 0.4 +4
#第三步:定义模型(线性回归)
X=tf.placeholder(tf.float32,name="input")
w=tf.Variable(0.0)
b=tf.Variable(0.0)
Y=X*w+b
#第四步:定义损失函数
Y_=tf.placeholder(tf.float32,name="output")
loss = tf.square(Y - Y_)
#第五步:定义优化器
optimizer=tf.train.GradientDescentOptimizer(leraining_rate)
#第六步:定义单步训练
train_op=optimizer.minimize(loss)
#第七步:定义会话,开始循环训练
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
#print("start train:")
for i in range(global_step):
for (xi, yi) in zip(x, y):
sess.run(train_op,feed_dict={X:xi,Y_:yi})
step_loss=sess.run(loss,feed_dict={X:xi,Y_:yi})
print(step_loss)
weight=sess.run(w,feed_dict={X:xi,Y_:yi})
bias=sess.run(b,feed_dict={X:xi,Y_:yi})
print("weight=%f,bias=%s"%(weight,bias))
#第八步:结果可视化
plt.plot(x,y,"*")
plt.plot(x,x*weight+bias)
plt.show()