通过一个简单的例子y=2x,通过加入噪声将其变为约等于。
1.添加随机数
train_X=np.linspace(-1,1,100)
train_Y=2*train_X+np.random.randn(*train_X.shape)*0.3 #y=2x 加入噪声
##np.random.randn(*train_X.shape)等同于np.random.randn(100)
#显示模拟的数据点
plt.plot(train_X,train_Y,'ro',label='Original data')
plt.legend()
plt.show()
2.正向搭建一个神经元模型
#正向搭建模型
#创建模型
#占位符
X=tf.placeholder("float")
Y=tf.placeholder("float")
#模型参数
W=tf.Variable(tf.random_normal([1]),name="weight")
b=tf.Variable(tf.zeros([1]),name='bias')
#前向结构
z=tf.multiply(X,W)+b
3.反向搭建模型
#反向搭建模型
cost=tf.reduce_mean(tf.square(Y -z))
learning_rate=0.01
optimizer=tf.train.GradientDescentOptimizer(learning_rate).minimize(cost)
4.迭代训练模型
#迭代训练模型
#初始化所有变量
init=tf.global_variables_initializer()
#定义参数
training_epochs=20
display_step=2
#启动session
with tf.Session() as sess:
sess.run(init)
plotdata={"batchsize":[],"loss":[]} #存放批次值和损失值
#向模型输入数据
for epoch in range(training_epochs):
for(x,y) in zip(train_X,train_Y):
sess.run(optimizer,feed_dict={X:x,Y:y})
#显示训练中的详细信息
if epoch %display_step==0:
loss = sess.run(cost,feed_dict={X:train_X,Y:train_Y})
print("Epoch:",epoch+1,"cost=",loss,"W=",sess.run(W),"b=",sess.run(b))
if not (loss == "NA"):
plotdata["batchsize"].append(epoch)
plotdata["loss"].append(loss)
print("Finished")
print("cost=",sess.run(cost,feed_dict={X:train_X,Y:train_Y}),"W=",sess.run(W),"b=",sess.run(b))
5.训练模型可视化
plt.plot(train_X,train_Y,'ro',label='Oringinal data')
plt.plot(train_X,sess.run(W)*train_X+sess.run(b),label='Fittedline')
plt.legend()
plt.show()
plt.subplot(1,3,2)
plotdata["avgloss"]=moving_average(plotdata["loss"])
plt.figure(1)
plt.plot(plotdata["batchsize"],plotdata["avgloss"],'b--')
plt.xlabel('Minibatch number')
plt.ylabel('Loss')
plt.title('Minibatch run vs. Training loss')
plt.show()
6(补).moving_average()和plotdata
plotdata={"batchsize":[],"loss":[]}
def moving_average(a,w=10):
if len(a) <w:
return a[:]
return [val if idx<w else sum(a[(idx-w):idx])/w for idx,val in enumerate(a)]
7.上述运行结果如下:
8.使用模型
print("x=0.4,z=",sess.run(z,feed_dict={X:0.2}))
结果为:
x=0.4,z= [0.84258795]