【Pytorch深度学习实践】B站up刘二大人之Linear Regression with PyTorch-代码理解与实现(4/9)

开篇几句题外话:

代码对我还是不简单,还是要花时间。我反应不过来变量之间的关系,没办法很快的想清楚这个过程。

Lecture05 —— Linear Regression With PyTorch 利用PyTorch实现线性回归模型

说在前面:

  • 这部分内容有不少更新指出:

(1)构建数据集用到了torch中的Tensor;

(2)通过创建python中的线性模型类,并实例化它,来构建模型;

(3)损失函数通过torch.nn库调用其中的MSELoss;

(4)优化器通过调用torch.optim库中的SGD实现;

(5)训练过程稍有变化,这里面第一次出现了梯度清零这个问题,用到的是优化库optim中的zero_grad()方法;

详细过程:

  • 本课程的主要任务是利用torch包的requires_grad自动求导,构建反向传播模型:
    • 导入numpymatplotlibostorch库;

    • 导入数据 x_datay_data,注意这里有变化,用到了torch中的Tensor格式,与04课程相同,所以才会出现datagrad的重要区别;

    • 创建LinearModel类模型:

      • 初始化init中,只有一个linear函数;注意要提前继承(这一步直接写,不深究);
      • 前向传播forward方法,这是把之前的前向传播函数,拿进来做了类中的一个方法,返回预测值;
    • 实例化一个模型model

    • 创建损失函数:通过调用torch.nn库中的MSELoss实现;

    • 创建优化器:通过调用torch.optim库中的SGD实现;

    • 创建两个空列表,因为后面绘图的时候要用:

    • 创建循环,开始训练:循环的次数epoch可以自定义

      • y_hat用模型model计算;
      • 损失loss用创建好的损失函数计算;
      • 先用优化器对梯度清零(重要,要清楚什么时候该清零,为什么清零,原理是什么);
      • 令损失反向传播loss.backward
      • 执行一步权重更新操作,用到的函数optimizer.step( )很奇特,这里非常关键,理解起来不容易,见下面的链接;
    • 在循环中要把计算的结果,放进之前的空列表,用于绘图;

    • 在获得了打印所需的数据列表只有,模式化地打印图像:

完整代码:

#!usr/bin/env python
# -*- coding:utf-8 _*-
"""
@author: 24_nemo
@file: 05_LinearRegressionwithPyTorch_handType.py
@time: 2022/04/08
@desc:
"""
import matplotlib.pyplot as plt
import torch

import os
os.environ['KMP_DUPLICATE_LIB_OK'] = 'True'

x_data = torch.Tensor([[1.0], [2.0], [3.0]])
y_data = torch.Tensor([[2.0], [4.0], [6.0]])


class LinearModel(torch.nn.Module):
    def __init__(self):
        super(LinearModel, self).__init__()
        self.linear = torch.nn.Linear(1, 1)

    def forward(self, x):
        y_hat = self.linear(x)
        return y_hat


model = LinearModel()

criterion = torch.nn.MSELoss(size_average=False)
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)

loss_list = []
epoch_list = []

for epoch in range(1000):
    y_hat = model(x_data)
    loss = criterion(y_hat, y_data)
    print(epoch, loss.item())

    optimizer.zero_grad()
    loss.backward()
    optimizer.step()

    epoch_list.append(epoch)
    loss_list.append(loss.item())

print('w =', model.linear.weight.item())
print('b =', model.linear.bias.item())

x_test = torch.Tensor([[4.0]])
y_test = model(x_test)

print('y_hat =', y_test.data)
print('y_hat =', y_test.item())

plt.plot(epoch_list, loss_list)
plt.xlabel('epoch')
plt.ylabel('loss')
plt.show()

运行结果:

在这里插入图片描述

在这里插入图片描述

上一篇:

【Pytorch深度学习实践】B站up刘二大人之 BackPropagation-代码理解与实现(3/9)

下一篇:

【Pytorch深度学习实践】B站up刘二大人之LogisticsRegression-代码理解与实现(5/9)

目录:

【Pytorch深度学习实践】B站up刘二大人课程笔记——目录与索引(已完结)

  • 4
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值