import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
# 使用numpy生成100个随机点
x_data = np.random.rand(100) # 产生均匀分布的点
noise = np.random.normal(0, 0.01, x_data.shape) # 产生高斯分布的点
y_data = x_data*0.1 + 0.2 + noise
# 显示随机点
plt.scatter(x_data, y_data) # 散点图显示
plt.show()
# 构建一个顺序模型
model = tf.keras.Sequential()
# 在模型中添加一个全连接层
model.add(tf.keras.layers.Dense(units=1, input_dim=1))
# sgd: Stochastic gradient descent 随机梯度下降法
# mse: Mean Squared Error 均方误差
model.compile(optimizer='sgd', loss='mse')
# 训练3001个批次
for step in range(3001):
cost = model.train_on_batch(x_data, y_data) # 返回Scalar training loss
if step % 500 ==0:
print('cost: ', cost)
# 打Weight and Bias
W, b = model.layers[0].get_weights()
print('W:', W, 'b', b)
# x_data输入网络中,得到预测值y_pred
y_pred = model.predict(x_data)
plt.scatter(x_data, y_data)
plt.plot(x_data, y_pred, 'r-', lw=3) # plt.plot()函数的本质就是根据点连接线
plt.show()
(A1)Linear Regression
最新推荐文章于 2023-11-12 17:08:14 发布