TensorFlow实现梯度下降

目录

一、梯度下降概念

二、要点

三、梯度下降法求解线性回归步骤

四、使用Numpy实现一元线性回归

五、使用TensorFlow实现一元线性回归

六、总结


一、梯度下降概念

梯度下降法是一个一阶最优化算法,通常也称为最速下降法。要使用梯度下降法找到一个函数的局部极小值,必须响函数上当前对于梯度(或者近似梯度)的反方向的规定步长居里点进行迭代搜索。所以梯度下降法可以帮助我们求解某个函数的极小值或者最小值。对于n为问题就是最优解,梯度下降法是最常用的方法之一。

二、要点

借助 TensorFlow 的可训练变量和自动求导机制使用梯度下降法求解线性回归问题。

三、梯度下降法求解线性回归步骤

第一步:加载数据(导入库、加载数据样本)

第二步:设置超参数(学习率、循环次数、显示结果间隔)

第三步:初始化模型(设置模型参数初值)

第四步:训练模型

四、使用Numpy实现一元线性回归

第一步:加载数据

# 导入库
import numpy as np
import matplotlib.pyplot as plt
# 加载数据样本   
x = np.array([137.97, 104.50, 100.00, 124.32, 79.20, 99.00, 124.00, 114.00,
             106.69, 138.05, 53.75, 46.91, 68.00, 63.02, 81.26, 86.21])
y = np.array([145.00, 110.00, 93.00, 116.00, 65.32, 104.00, 118.00, 91.00,
              62.00, 133.00, 51.00, 45.00, 78.50, 69.65, 75.69, 95.30])

第二步:设置超参数

learn_rate = 0.00001     # 学习率
iter = 100               # 循环次数
display_step = 10        # 显示结果间隔

第三步:初始化模型(设置模型参数初值)

np.random.seed(612)
w = np.random.randn()
b = np.random.randn()

第四步:训练模型

for i in range(0, iter+1):
    # 计算梯度
    dL_dw = np.mean(x*(w*x+b-y))
    dL_db = np.mean(w*x+b-y)
    # 使用梯度结果更新模型参数
    w = w-learn_rate*dL_dw
    b = b-learn_rate*dL_db
    # 使用更新后的参数计算估计值和均方误差
    pred = w*x+b
    Loss = 0.5*np.mean(np.square(y-pred))
    mse.append(Loss)

五、使用TensorFlow实现一元线性回归

第一步:加载数据

# 导入库
import numpy as np
import tensorflow as tf
print("TensorFlow version:", tf.__version__)
# 加载数据样本
x = np.array([137.97, 104.50, 100.00, 124.32, 79.20, 99.00, 124.00, 114.00,
             106.69, 138.05, 53.75, 46.91, 68.00, 63.02, 81.26, 86.21])
y = np.array([145.00, 110.00, 93.00, 116.00, 65.32, 104.00, 118.00, 91.00,
              62.00, 133.00, 51.00, 45.00, 78.50, 69.65, 75.69, 95.30])

第二步:设置超参数

learn_rate = 0.00001     # 学习率(调整步长)
iter = 100               # 循环次数
display_step = 10        # 显示结果间隔

第三步:设置模型参数初始值

np.random.seed(612)
w = tf.Variable(np.random.randn())
b = tf.Variable(np.random.randn())

第四步:训练模型

for i in range(0, iter+1):
    # 把线性模型和损失函数的表达式写在梯度带的with语句中
    with tf.GandientTape() as tape:
           pred = w*x+b
           Loss = 0.5*tf.reduce_mean(tf.square(y-pred))
    mse.append(Loss)
    # 把手工计算梯度的代码改为使用梯度带gradient方法,自动获取梯度
    dL_dw,dL_db = tape.gradient(Loss,[w,b])
    
    # 使用迭代公式更新模型参数,给Variable对象赋值需要使用assign方法,这里使用assign_sub方法实现减法运算
    w.assign_sub(learn_rate * dL_dw)
    b.assign_sub(learn_rate * dL_db)

值得注意的是:numpy默认浮点数64位 ;TensorFlow默认浮点数32位。

如指定64位,则得到和numpy完全相同的结果

六、总结

使用TensorFlow实现梯度下降法,梯度带会自动计算损失函数的梯度而不用我们写代码实现偏导数的实现过程。


欢迎留言,一起学习交流~

感谢阅读

END

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
以下是使用TensorFlow 2.0实现梯度下降的示例代码: ``` import tensorflow as tf # 定义训练数据 x_train = [1.0, 2.0, 3.0, 4.0] y_train = [2.0, 4.0, 6.0, 8.0] # 定义模型参数 W = tf.Variable(1.0) b = tf.Variable(1.0) # 定义模型 def model(x): return W * x + b # 定义损失函数 def loss(predicted_y, desired_y): return tf.reduce_mean(tf.square(predicted_y - desired_y)) # 定义训练函数 def train(x, y, learning_rate): with tf.GradientTape() as t: current_loss = loss(model(x), y) dW, db = t.gradient(current_loss, [W, b]) W.assign_sub(learning_rate * dW) b.assign_sub(learning_rate * db) # 训练模型 for epoch in range(100): for x, y in zip(x_train, y_train): train(x, y, learning_rate=0.01) current_loss = loss(model(x_train), y_train) print(f"Epoch {epoch}: Loss: {current_loss.numpy()}") # 测试模型 x_test = [5.0, 6.0, 7.0, 8.0] y_test = [10.0, 12.0, 14.0, 16.0] predicted_y = model(x_test) print(f"Predicted Y: {predicted_y.numpy()}") print(f"Desired Y: {y_test}") ``` 在这个例子中,我们使用TensorFlow 2.0实现了一个简单的线性回归模型,并使用梯度下降算法对其进行了训练。我们首先定义了训练数据,然后定义了模型参数W和b。接下来,我们定义了模型函数,它将输入x映射到输出y。然后,我们定义了损失函数,它将模型的预测输出y与真实输出y进行比较,并计算它们之间的平方差。最后,我们定义了一个训练函数,它使用梯度带自动计算模型参数W和b的梯度,并使用学习率更新它们。在训练过程中,我们迭代地将训练数据馈送给训练函数,直到达到指定的训练轮数。最后,我们使用训练好的模型对测试数据进行预测,并将预测结果与真实结果进行比较。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

荣仔!最靓的仔!

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值