#结构
import tensorflow as tf
import numpy as np
# create data 100-->1000增大数据量能增加精度
x_data = np.random.rand(100).astype(np.float32)
y_data = x_data*0.1 + 0.3
#print(x_data,y_data)
# 创建训练结构
Weights = tf.Variable(tf.random_uniform([1],-1.0,1.0))
biases = tf.Variable(tf.zeros([1]))
y = x_data*Weights + biases
# 计算误差
loss = tf.reduce_mean(tf.square(y-y_data))
#使用tf优化误差
#使用一个梯度下降优化器
optimizer = tf.train.GradientDescentOptimizer(0.5)
train = optimizer.minimize(loss) #优化
#初始化之前所有的值
init = tf.global_variables_initializer() # 替换成这样就好
# 创建session绘画run一次初始化的任务
sess = tf.Session()
sess.run(init) # 初始化 很重要
#多训练几次也能更加接近真实值
for step in range(201):
sess.run(train)
if(step%20) == 0:
print(step,sess.run(Weights),sess.run(biases))
import tensorflow as tf
import numpy as np
# create data 100-->1000增大数据量能增加精度
x_data = np.random.rand(100).astype(np.float32)
y_data = x_data*0.1 + 0.3
#print(x_data,y_data)
# 创建训练结构
Weights = tf.Variable(tf.random_uniform([1],-1.0,1.0))
biases = tf.Variable(tf.zeros([1]))
y = x_data*Weights + biases
# 计算误差
loss = tf.reduce_mean(tf.square(y-y_data))
#使用tf优化误差
#使用一个梯度下降优化器
optimizer = tf.train.GradientDescentOptimizer(0.5)
train = optimizer.minimize(loss) #优化
#初始化之前所有的值
init = tf.global_variables_initializer() # 替换成这样就好
# 创建session绘画run一次初始化的任务
sess = tf.Session()
sess.run(init) # 初始化 很重要
#多训练几次也能更加接近真实值
for step in range(201):
sess.run(train)
if(step%20) == 0:
print(step,sess.run(Weights),sess.run(biases))