附上github的源代码地址:https://github.com/w1449550206/Linear-regression-with-tensorflow.git
文章目录
1.线性回归的介绍
根据训练数据,训练一个w1x1+w2x2+…+b = y,有多少个特征,就有多少个权重
2.训练数据的获取
假设随机的一百个点,且只有一个特征,y = wx+b
特征值:训练数据100个样本,100行1列[100, 1]
目标值:y = 0.8*x+0.7 (造数据用的,一开始是不知道的)
3.步骤分析
- 1.准备好数据集,我们制造y=0.8x+0.7的100个样本
- 2.建立线性模型,随机初始化w1和b1,y=wx+b,目标求出权重w和偏置b (比如我们随机一个w为0.2,b为0.7,和我们假设已经知道的0.8和0.7差很远,所以接下来要确定损失函数,然后梯度下降优化来找到损失最小的w和b)
- 3.确定损失函数(预测值与真实值之间的误差),即均方误差
- 4.梯度下降优化损失:需要制定学习率(超参数)
4.相关的API
运算
矩阵运算
tf.matmul(x,w)
平方
tf.square(error)
均值
tf.reduce_mean(error)
误差
error = tf.reduce_mean(tf.square(y_predict - y_true))
梯度下降优化
tf.train.GradientDescentOptimizer(learning_rate)
- learing_rate是学习率,一般为0-1之间比较小的值
- method: minimize(loss)损失优化
- return: 梯度下降op
返回一个节点操作:
optimizer = tf.train.GradientDescentOptimizer(learning_rate = 0.01).minimize(error)
5.完整代码
1.准备好数据集,我们制造y=0.8x+0.7的100个样本
# 特征值x,目标值y_true
x = tf.random_normal(shape=(100, 1), mean=2, stddev=2)
y_true = tf.matmul(x,