前言:本篇文章的服务对象是没有武力值也想和pytorch沾沾边的小白朋友们,主要的内容是对于经典代码的逐行解读,解读内容以注释的形式展示。
本篇文章的代码来源为(李沐 动手学深度学习pytorch版)
相比于前一篇线性回归,本文是稍微进阶一点的简洁版,运用深度学习的框架来简洁的实现线性回归,当然整体的流程和思路是一样的,相同的部分本文不赘述,感兴趣的话可以去本文专栏内查阅上篇文章。
import torch
from torch.utils import data # 和前一章节的区别,调用了一个新模块
from d2l import torch as d2l
true_w = torch.tensor([2, -3.4])
true_b = 4.2
features, labels = d2l.synthetic_data(true_w, true_b, 1000) # 人工数据合成的函数synthetic_data()
def load_array(data_arrays, batch_size, is_train=True): #@save
"""构造一个PyTorch数据迭代器"""
dataset = data.TensorDataset(*data_arrays) # *表示接受多个参数,并将其放在一个元组中
# 用dataloader函数每次随机挑选(shuffle=is_train)一个b个样本
return data.DataLoader(dataset, batch_size, shuffle=is_train)
batch_size = 10
data_iter = load_array((features, labels), batch_size) # 已知features和labels的时候,可以将其作为一个list,传到TensorDataset里
next(iter(data_iter)) # iter(定义过)是一个迭代器,在通过next函数得到x和y
接下来开始定义模型
# nn是神经网络的缩写 模组的定义
# nn.Linear定义一个神经网络的线性层,唯一需要指定的是,输入的维度(2)和输出的维度(1),以及bias=True 是否包含偏置
# 这个例子里面可以直接只用Linear层就行,但是我们可以使用框架已经预设过的层,所以大部分时间内,我们只需要关注使用哪些Sequential类的实例
# Sequential是一个容器,理解为list of layers
# Sequential一个有序的容器,可以将多个层串联到一起,将前一层的输出当做下一层的输入,依次计算
from torch import nn
net = nn.Sequential(nn.Linear(2, 1))
net[0].weight.data.normal_(0, 0.01)
net[0].bias.data.fill_(0)
loss = nn.MSELoss() # 均方误差很常用,直接调用就好了
# SGD也是很常用的算法,直接调用,此函数至少需要传入两个参数,net.parameters()是net中所有的参数,并指定学习率为0.03
trainer = torch.optim.SGD(net.parameters(), lr=0.03)
定义完之后,就开始训练了,还是经典的两个for循环。 与前文中方法不一样的地方在于net中自己带了模型参数所以不需要输入w和b。
num_epochs = 3
for epoch in range(num_epochs):
for X, y in data_iter:
l = loss(net(X) ,y) # net(X)生成预算,并计算损失(向前传播)
trainer.zero_grad() # 优化器更新模型参数,先把梯度清零
l.backward() # 通过反向传播来计算梯度
trainer.step() # 调用step的函数进行模型更新
l = loss(net(features), labels) # 为了量化训练效果,计算每轮后的损失,并打印出来
print(f'epoch {epoch + 1}, loss {l:f}')
w = net[0].weight.data
print('w的估计误差:', true_w - w.reshape(true_w.shape))
b = net[0].bias.data
print('b的估计误差:', true_b - b)
以上便是对于线性回归的简洁实现,在日常使用中我们也将使用pytorch的更高级的API来实现模型。