【利用Tensorflow 实现和训练线性回归 (Linear Model)】(超级详细,附源代码)

本文详细介绍了如何使用Tensorflow实现线性回归,包括数据生成、模型建立、损失函数、梯度下降优化及完整代码展示。通过训练100个样本,模拟y=0.8x+0.7的线性关系,探讨了学习率和变量训练的设置。
摘要由CSDN通过智能技术生成

附上github的源代码地址:https://github.com/w1449550206/Linear-regression-with-tensorflow.git

1.线性回归的介绍

根据训练数据,训练一个w1x1+w2x2+…+b = y,有多少个特征,就有多少个权重

2.训练数据的获取

假设随机的一百个点,且只有一个特征,y = wx+b
特征值:训练数据100个样本,100行1列[100, 1]
目标值:y = 0.8*x+0.7 (造数据用的,一开始是不知道的)

3.步骤分析

  • 1.准备好数据集,我们制造y=0.8x+0.7的100个样本
  • 2.建立线性模型,随机初始化w1和b1,y=wx+b,目标求出权重w和偏置b (比如我们随机一个w为0.2,b为0.7,和我们假设已经知道的0.8和0.7差很远,所以接下来要确定损失函数,然后梯度下降优化来找到损失最小的w和b)
  • 3.确定损失函数(预测值与真实值之间的误差),即均方误差
  • 4.梯度下降优化损失:需要制定学习率(超参数)

4.相关的API

运算

矩阵运算

tf.matmul(x,w)

平方

tf.square(error)

均值

tf.reduce_mean(error)

误差

error = tf.reduce_mean(tf.square(y_predict - y_true))

梯度下降优化

tf.train.GradientDescentOptimizer(learning_rate)
  • learing_rate是学习率,一般为0-1之间比较小的值
  • method: minimize(loss)损失优化
  • return: 梯度下降op
    返回一个节点操作:
optimizer = tf.train.GradientDescentOptimizer(learning_rate = 0.01).minimize(error)

5.完整代码

1.准备好数据集,我们制造y=0.8x+0.7的100个样本

# 特征值x,目标值y_true
x = tf.random_normal(shape=(100, 1), mean=2, stddev=2)
y_true = tf.matmul(x,
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值