小白也能看懂的pytorch——线性回归(简洁版)

前言:本篇文章的服务对象是没有武力值也想和pytorch沾沾边的小白朋友们,主要的内容是对于经典代码的逐行解读,解读内容以注释的形式展示。

本篇文章的代码来源为(李沐 动手学深度学习pytorch版)

相比于前一篇线性回归,本文是稍微进阶一点的简洁版,运用深度学习的框架来简洁的实现线性回归,当然整体的流程和思路是一样的,相同的部分本文不赘述,感兴趣的话可以去本文专栏内查阅上篇文章。

import torch
from torch.utils import data  # 和前一章节的区别,调用了一个新模块
from d2l import torch as d2l

true_w = torch.tensor([2, -3.4])
true_b = 4.2
features, labels = d2l.synthetic_data(true_w, true_b, 1000)  # 人工数据合成的函数synthetic_data()

def load_array(data_arrays, batch_size, is_train=True):  #@save
    """构造一个PyTorch数据迭代器"""
    dataset = data.TensorDataset(*data_arrays)  # *表示接受多个参数,并将其放在一个元组中
    #  用dataloader函数每次随机挑选(shuffle=is_train)一个b个样本
    return data.DataLoader(dataset, batch_size, shuffle=is_train)

batch_size = 10
data_iter = load_array((features, labels), batch_size)   # 已知features和labels的时候,可以将其作为一个list,传到TensorDataset里
next(iter(data_iter))   # iter(定义过)是一个迭代器,在通过next函数得到x和y

接下来开始定义模型

# nn是神经网络的缩写 模组的定义

# nn.Linear定义一个神经网络的线性层,唯一需要指定的是,输入的维度(2)和输出的维度(1),以及bias=True 是否包含偏置

# 这个例子里面可以直接只用Linear层就行,但是我们可以使用框架已经预设过的层,所以大部分时间内,我们只需要关注使用哪些Sequential类的实例

# Sequential是一个容器,理解为list of layers

# Sequential一个有序的容器,可以将多个层串联到一起,将前一层的输出当做下一层的输入,依次计算

from torch import nn
net = nn.Sequential(nn.Linear(2, 1))
net[0].weight.data.normal_(0, 0.01)
net[0].bias.data.fill_(0)
loss = nn.MSELoss()  # 均方误差很常用,直接调用就好了
# SGD也是很常用的算法,直接调用,此函数至少需要传入两个参数,net.parameters()是net中所有的参数,并指定学习率为0.03
trainer = torch.optim.SGD(net.parameters(), lr=0.03)

定义完之后,就开始训练了,还是经典的两个for循环。 与前文中方法不一样的地方在于net中自己带了模型参数所以不需要输入w和b。

num_epochs = 3
for epoch in range(num_epochs):
    for X, y in data_iter:
        l = loss(net(X) ,y)  # net(X)生成预算,并计算损失(向前传播)
        trainer.zero_grad()  # 优化器更新模型参数,先把梯度清零
        l.backward()  # 通过反向传播来计算梯度
        trainer.step()  # 调用step的函数进行模型更新
    l = loss(net(features), labels)  # 为了量化训练效果,计算每轮后的损失,并打印出来
    print(f'epoch {epoch + 1}, loss {l:f}')
w = net[0].weight.data
print('w的估计误差:', true_w - w.reshape(true_w.shape))
b = net[0].bias.data
print('b的估计误差:', true_b - b)

以上便是对于线性回归的简洁实现,在日常使用中我们也将使用pytorch的更高级的API来实现模型。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,我会为您解答关于使用PyTorch进行线性回归的问题。 在PyTorch中进行线性回归可以分为以下几个步骤: 1. 准备数据:首先,您需要准备数据,包括训练数据和验证数据。在本例中,我们将使用一个简单的数据集,其中包含一些房屋的面积和价格,以用于预测房价。 2. 定义模型:接下来,您需要定义一个模型。在本例中,我们将使用一个简单的线性模型,它包含一个线性层,该层将输入的特征映射到输出的标签。 3. 定义损失函数:您需要定义一个损失函数,以便在训练模型时计算损失。在本例中,我们将使用均方误差(MSE)损失函数。 4. 训练模型:接下来,您需要定义一个优化器,并使用训练数据对模型进行训练。在本例中,我们将使用随机梯度下降(SGD)优化器,并迭代多次来更新模型的参数。 5. 验证模型:最后,您需要使用验证数据来评估模型的性能。在本例中,我们将计算模型在验证数据上的损失,并将其与训练数据的损失进行比较,以确定模型是否过拟合。 以下是一个简单的代码示例,演示了如何使用PyTorch进行线性回归: ```python import torch import torch.nn as nn # 准备数据 x_train = torch.tensor([[1.0], [2.0], [3.0], [4.0]]) y_train = torch.tensor([[2.0], [4.0], [6.0], [8.0]]) # 定义模型 model = nn.Linear(1, 1) # 定义损失函数 criterion = nn.MSELoss() # 定义优化器 optimizer = torch.optim.SGD(model.parameters(), lr=0.01) # 训练模型 num_epochs = 1000 for epoch in range(num_epochs): # 向前传递 outputs = model(x_train) loss = criterion(outputs, y_train) # 向后传递和优化 optimizer.zero_grad() loss.backward() optimizer.step() if (epoch+1) % 100 == 0: print('Epoch [{}/{}], Loss: {:.4f}'.format(epoch+1, num_epochs, loss.item())) # 验证模型 x_val = torch.tensor([[5.0]]) y_val = model(x_val) print('预测的房价: {:.2f}'.format(y_val.item())) ``` 希望这可以帮助您理解如何使用PyTorch进行线性回归
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值