#单变量线性回归:
import matplotlib.pyplot as plt
import numpy as np
import tensorflow as tf
#设置随机数种子
np.random.seed(5)
#直接采用np生成等差数列的方法,生成100个点,每个点的取值在-1-1之间
x_data=np.linspace(-1,1,100)
#y=2x+1+噪声,噪声的维度与x_data一致
y_data=2*x_data+1.0+np.random.randn(*x_data.shape)*0.4
#画出随机生成数据的散点图
plt.scatter(x_data,y_data)
#画出想要学习到的线性函数y=2x+1
plt.plot(x_data,2*x_data+1.0,color='red',linewidth=3)
#构建模型
x=tf.placeholder("float",name="x")
y=tf.placeholder("float",name="y")
#定义模型函数
def model(x,w,b):
return tf.multiply(x,w)+b
#创建变量
#构建线性函数斜率,变量w
w=tf.Variable(1.0,name="w0")
#构建线性函数截距,变量b
b=tf.Variable(0.0,name="b0")
#pred是预测值,前向计算
pred=model(x,w,b)
#训练模型
#设置训练参数
#迭代次数(训练轮数)
train_epochs=10
#学习率
learning_rate=0.05
#定义损失函数
#采用均方差作为损失函数
loss_function=tf.reduce_mean(tf.square(y-pred))
#定义优化器
optimizer=tf.train.GradientDescentOptimizer(learning_rate).minimize(loss_function)
#创建会话
sess=tf.Session()
#变量初始化
init=tf.global_variables_initializer()
sess.run(init)
#迭代训练
#开始训练,轮数为epoch,采用SGD随机梯度下降优化方法
for epoch in range(train_epochs):
for xs,ys in zip(x_data,y_data):
_,loss=sess.run([optimizer,loss_function],feed_dict= {x:xs,y:ys})
b0temp=b.eval(session=sess)
w0temp=w.eval(session=sess)
plt.plot(x_data,w0temp*x_data+b0temp) #画图
2、tensorflow简单网络实现
最新推荐文章于 2022-05-14 15:39:56 发布