Pytorch深度学习实践(4)使用Pytorch实现线性回归

使用Pytorch实现线性回归

基本步骤:

  • 准备数据集
  • 设计模型
  • 构造损失函数和优化器
  • 模型训练
    • forward计算损失
    • backward计算梯度
    • update更新参数

准备数据集

[ y p r e d ( 1 ) y p r e d ( 2 ) y p r e d ( 3 ) ] = ω [ x ( 1 ) x ( 2 ) x ( 3 ) ] + b \begin {bmatrix}y_{pred}^{(1)} \\ y_{pred}^{(2)} \\ y_{pred}^{(3)} \end{bmatrix} =\omega \begin {bmatrix}x^{(1)} \\ x^{(2)} \\ x^{(3)} \end{bmatrix} + b ypred(1)ypred(2)ypred(3) =ω x(1)x(2)x(3) +b

import torch
## 注意x和y的值必须是矩阵
x_data = torch.tensor([[1.0], [2.0], [3.0]])
y_data = torch.tensor([[2.0], [4.0], [6.0]])

设计模型

在这里插入图片描述

在Pytorch里,重点是构造计算图

在这里使用的是仿射模型,即线性单元
z = w x + b z = wx + b z=wx+b
需要确定的是 w w w b b b 的维度大小,即要通过输入和输出的维度来确定权重的维度

必须注意的是 l o s s loss loss一定要是一个标量

一般而言,会把模型设计成类

class LinearModel(torch.nn.Module):  #继承自Module
    def __init__(self):  #构造函数
        super(LinearModel, self).__init__()  # 调用负类的构造
        self.linear = torch.nn.Linear(1, 1)  # 构造Linear对象 包含权重和偏置
    def forward(self, x):
        y_pred = self.linear(x)
        return y_pred

model = LinearModel()  # 实例化LinearModel()对象

torch.nn.Linear(in_features, out_features, bias=True)参数:

  • in_features 输入的每一个样本的维度
  • out_features 输出的每一个样本的维度
  • bias 是否需要添加偏置,默认为True

forward()方法中y_pred = self.linear(x)调用的是了python中的__call__函数。在Pytorch的Module.__call__()中有一个重要的语句就是forward(),也就是说,在这里我们必须写forward()来去覆盖

定义损失函数和优化器

损失函数

损失函数使用MSE

criterion = torch.nn.MSELoss(size_average=False)

参数设置:

  • size_average,是否对损失求平均,默认为True
  • reduce,用来确定是否要把损失求和降维(特征降维)

一般而言,只考虑size_average

优化器

使用梯度下降

optimizer = torch.optim.SGD(model.parameters(), lr=0.01)

参数设置:

  • params,传入模型需要优化的权重
  • lr,学习率

模型训练

训练100次,主要是三个步骤

  • 前馈计算
  • 反向传播
  • 梯度更新

注意不要忘记梯度清零

for epoch in range(100):
    y_pred = model(x_data)  # 前馈计算
    loss = criterion(y_pred, y_data)  # 计算损失
    print(epoch, loss)

    optimizer.zero_grad()  # 梯度清零
    loss.backward()  # 反向传播
    optimizer.step()  # 参数更新

## 损失数据可视化
plt.plot(np.arange(100), loss_history)
plt.xlabel('epoch')
plt.ylabel('loss')
plt.show()
## 打印训练后的参数
print("w = ", model.linear.weight.item())
print("b = ", model.linear.bias.item())

在这里插入图片描述

模型测试

x_test = torch.tensor([[4.0]])
y_test = model(x_test)
print("y_pred = ", y_test.item())

测试结果如下
在这里插入图片描述

整体代码

import torch
import matplotlib.pyplot as plt
import numpy as np

## 注意x和y的值必须是矩阵
x_data = torch.tensor([[1.0], [2.0], [3.0]])
y_data = torch.tensor([[2.0], [4.0], [6.0]])
loss_history = []

########## 模型的定义 ##########
class LinearModel(torch.nn.Module):  #继承自Module
    def __init__(self):  #构造函数
        super(LinearModel, self).__init__()
        self.linear = torch.nn.Linear(1, 1)
    def forward(self, x):
        y_pred = self.linear(x)
        return y_pred

model = LinearModel()  # 实例化Linear()对象

########## 定义损失函数和优化器 ##########
## 损失函数
criterion = torch.nn.MSELoss(size_average=False)
## 优化器
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)

########## 模型训练 ##########
for epoch in range(100):
    y_pred = model(x_data)  # 前馈计算
    loss = criterion(y_pred, y_data)  # 计算损失
    print(epoch, loss)
    loss_history.append(loss.item())

    optimizer.zero_grad()  # 梯度清零
    loss.backward()  # 反向传播
    optimizer.step()  # 参数更新

## 损失数据可视化
plt.plot(np.arange(100), loss_history)
plt.xlabel('epoch')
plt.ylabel('loss')
plt.show()
## 打印训练后的参数
print("w = ", model.linear.weight.item())
print("b = ", model.linear.bias.item())

########## 模型测试 ##########
x_test = torch.tensor([[4.0]])
y_test = model(x_test)
print("y_pred = ", y_test.item())

  • 15
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值