python 梯度下降 解决简单的线性回归问题1

35 篇文章 3 订阅
29 篇文章 0 订阅

1.问题描述:

已知三组学习时长和最终得分的数据,建立数学模型,预测学习时长为4小时的最终得分

2.梯度下降:

x:学习时长 y:最终得分

模型:采用线性回归模型y_pred=wx+b,求解参数w,b

损失函数:cost=sum((y_pred-y)**2)/n

其中:y_pred为穷举不同w,b时x对应的预测输出,cost最小时参数w,b最优

3.相关知识:

同理:可求得cost关于w的偏导数作为w的梯度。

图中:cost=sum((y_pred-y)**2)/n即目标函数,w的梯度是目标函数关于w的偏导数,b的梯度是目标函数关于b的偏导数,w,b以按照以上公式更新。

4.python代码:

import numpy as np
import matplotlib.pyplot as plt

# 准备数据集
x_data = [1, 2, 3]
y_data = [2, 4, 6]

w = 1  # 随机初始化w=1
b = 1  # 随机初始化b=1
learning_rate = 0.005  # 初始化超参数学习速率,通常等于0.01,0.001或者更小


def forward(x, w, b):  # 前向计算
    return x * w + b


def loss_cal(x_data, y_data, w, b):  # 计算loss
    loss_sum = 0
    for x, y in zip(x_data, y_data):
        y_pred = forward(x, w, b)
        loss = (y_pred - y) ** 2
        loss_sum += loss
    return loss_sum / len(x_data)


def grad_cal(x_data, y_data):  # 计算梯度
    w_grad_sum = 0
    b_grad_sum = 0
    for x, y in zip(x_data, y_data):
        w_grad = 2 * x * (w * x + b - y)
        b_grad = 2 * (w * x + b - y)
        w_grad_sum += w_grad
        b_grad_sum += b_grad
    return w_grad_sum / len(x_data), b_grad_sum / len(x_data)


epoch_list = []
w_list = []
b_list = []
loss_list = []

for epoch in range(200):
    w_list.append(w)
    b_list.append(b)
    epoch_list.append(epoch)
    loss = loss_cal(x_data, y_data, w, b)
    loss_list.append(loss)
    w_grad, b_grad = grad_cal(x_data, y_data)
    w = w - learning_rate * w_grad  # 更新权值
    b = b - learning_rate * b_grad  # 更新权值

# 一个窗口画出三张图
plt.figure(1)
plt.subplot(3, 1, 1)
plt.plot(epoch_list, b_list)
plt.ylabel("b")

plt.subplot(3, 1, 2)
plt.plot(epoch_list, w_list)
plt.ylabel("w")

plt.subplot(3, 1, 3)
plt.plot(epoch_list, loss_list)
plt.xlabel("epoch")
plt.ylabel("loss")

plt.figure(2)
ax3 = plt.axes(projection='3d')
X = w_list
Y = b_list
X, Y = np.meshgrid(X, Y)
Z = loss_cal(x_data, y_data, X, Y)
ax3.set_xlabel("w")
ax3.set_ylabel("b")
ax3.set_zlabel("loss")
ax3.plot_surface(X, Y, Z, cmap='rainbow')
plt.show()

5.可视化结果:

可以看到,随着训练次数增加,loss逐渐减小,w,b相应取2,0。

绘制出了w,b,loss的3d图。

6.以上均为个人学习pytorch基础入门中的基础,浅做记录,如有错误,请各位大佬批评指正!

7.关于问题描述和原理的部分图片参考刘老师的视频课件,本文也是课后作业的一部分,特此附上视频链接,《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili,希望大家都有所进步!

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Newjet666

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值