1.使用numpy生成(-0.5,0.5)范围内,均匀的200个随机点,并在列上增加1维(将点转变成二维矩阵),生成含有正太分布噪声的二次函数分布的散点。
import numpy as np
import matplotlib.pyplot as plt
#使用numpy生成(-0.5,0.5)范围内,均匀的200个随机点,是一维数据
x_data=np.linspace(-0.5,0.5,200)
print (x_data.shape)
#使用numpy生成(-0.5,0.5)范围内,均匀的200个随机点,并在列上增加1维,
x_data=np.linspace(-0.5,0.5,200)[:,np.newaxis]
noise=np.random.normal(0,0.02,x_data.shape)
y_data=np.square(x_data)+noise
print (x_data.shape)
#绘制出当前图像
plt.figure()
plt.scatter(x_data,y_data)
plt.show()
2.定义2层神经网络,分别为10个神经元和1个神经元,对上边的200个点线性回归。
输入:x_data [200,1] Weight_L1 [1,10], biases_L1 [1,10] Weight_L2 [10,1], biases_L2 [1,1]
import numpy as np
import matplotlib.pyplot as plt
import tensorflow as tf
#使用numpy生成(-0.5,0.5)范围内,均匀的200个随机点,是一维数据
x_data=np.linspace(-0.5,0.5,200)
print (x_data.shape)
#使用numpy生成(-0.5,0.5)范围内,均匀的200个随机点,并在列上增加1维,
x_data=np.linspace(-0.5,0.5,200)[:,np.newaxis]
noise=np.random.normal(0,0.02,x_data.shape)
y_data=np.square(x_data)+noise
print (x_data.shape)
#定义输入数据为占位符号,大小为,行不限,1列
x= tf.placeholder(tf.float32,[None,1])
y= tf.placeholder(tf.float32,[None,1])
#定义第一层神经网络的参数,10个节点,一定注意每个参数的大小,有点难理解
Weights_L1=tf.Variable(tf.random_normal([1,10]))
Bias_L1=tf.Variable(tf.zeros([1,10]))
y1=tf.matmul(x,Weights_L1)+Bias_L1
L1=tf.nn.tanh(y1)
#定义第二层输出,一个神经元
Weights_L2=tf.Variable(tf.random_normal([10,1]))
Bias_L2=tf.Variable(tf.zeros([1,1]))
y2=tf.matmul(L1,Weights_L2)+Bias_L2
out=tf.nn.tanh(y2)
#二次代价函数
loss= tf.reduce_mean(tf.square(y-out))
#使用梯度下降法训练
train_step=tf.train.GradientDescentOptimizer(0.1).minimize(loss)
#对神经网络就行训练与迭代
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
for n in range(3000):
sess.run(train_step,feed_dict={x:x_data,y:y_data})
if(n%100==0):
print('train:',n)
#获得训练后的预测值
predect=sess.run(out,feed_dict={x:x_data})
#绘制出当前图像
plt.figure()
plt.scatter(x_data,y_data)
plt.plot(x_data,predect,'r-',lw=5)
plt.show()