第五章的学习主要还是进行实践操作的流程梳理部分,作为初学者把这部分掌握有助于对后面框架编程的理解。
第一 学习框架
框架分为四个部分:准备数据集、设计模型、构造损失函数和优化器、设计测试循环四个部分。
第二 进行编程
1、 数据准备
数据作为矩阵进行Tensor张量计算
#1、进行数据准备
#数据作为矩阵参与Tensor计算
x_data = torch.Tensor([[1.0],[2.0],[3.0]])
y_data = torch.Tensor([[2.0],[4.0],[6.0]])
2 、创造线性模型
使用Pytorch中的Module模组,里面含有许多机器学习中的数学模型
#2、创造线性模型
#Module中含有许多机器学习中的数学模型
class LinearModel(torch.nn.Module):
def __init__(self):
#调用父类的init
super(LinearModel, self).__init__()
#Linear对象包括weight权重(w)和bias(阈值)(b)两个张量
self.linear = torch.nn.Linear(1,1)
#前馈函数forward,对父类函数中的overwrite,设置传递参数为x
def forward(self, x):
#调用linear中的call(),以利用父类forward计算wx+b
y_pred = self.linear(x)
return y_pred
#反馈函数backward由module自动根据计算生成
#这个model是个called
model = LinearModel()
3、构造损失函数和优化器
#3、构造损失函数和优化器
#构造的citerion对象所接受的参数为:(y*,y)
criterion = torch.nn.MSELoss(size_average=False)#是否要求均值
#model.parameters()用于检查模型中所能进行优化的张量
#learninggrate(lr)表示学习率,可以统一也可以不统一
#SGD优化器在torch中有很多可以尝试用不同的优化器
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)
4、创造训练循环
#4、创造训练循环
for epoch in range(1000):
#前馈计算y_pred
y_pred = model(x_data)
#前馈计算损失loss
loss = criterion(y_pred,y_data)
#打印调用loss时,会自动调用内部__str__函数
print(epoch,loss)
#梯度清零
optimizer.zero_grad()
#梯度反向传播
loss.backward()
#根据传播的梯度以及学习率更新参数
optimizer.step()
5、测试与输出
#5、训练结束之后的输出
print('w = ',model.linear.weight.item())
print('b = ',model.linear.bias.item())
#6、进行测试
x_test = torch.Tensor([4.0])
y_test = model(x_test)
print('y_pred = ', y_test.data)
第三 附整体学习大纲