线性回归的简洁实现
接下来使用一些框架来实现线性回归学习
框架可以自动化基于梯度的学习算法中重复性的工作。
在上篇文章中,我们只运用了:
(1)通过张量来进行数据存储和线性代数;
(2)通过自动微分来计算梯度。
实际上,由于数据迭代器、损失函数、优化器和神经网络层很常用, 现代深度学习库也为我们实现了这些组件。
下面将介绍如何通过使用深度学习框架来简洁地实现 线性回归模型
生成数据集
与上篇文章类似,首先生成数据集。
import numpy as np
import torch
from torch.utils import data #从torch的utils里面调用一些处理数据的模块
from d2l import torch as d2l
true_w = torch.tensor([2, -3.4])
true_b = 4.2
features, labels = d2l.synthetic_data(true_w, true_b, 1000)
读取数据集
我们可以调用框架中现有的API来读取数据。
我们将features
和labels
作为API的参数传递,并通过数据迭代器指定batch_size
。 此外,布尔值is_train
表示是否希望数据迭代器对象在每个迭代周期内打乱数据。
来对下面的代码进行解释:
#假设我们已经有features和lables了,我们把它做成一个list(第六行)
#然后把list传到TensorDataset里面(第三行),会得到一个pytorch的一个dataset(第三行)
#dataset里拿到数据集之后(第三行),然后调用dataloader这个函数(第四行),用处时每次随机挑选b(batch_size)个样本出来,shuffle意思是说要不要随机去打乱这个顺序,is_train,意思是如果是train的话是需要打乱的
def load_array(data_arrays, batch_size, is_train=True): #&