《PyTorch深度学习实践》第五讲 用PyTorch实现线性回归

首先确定线性模型函数,以及损失函数的公式

编写代码主要有四个步骤:

 以下是我对于本节做的笔记,话不多说,上图

 

 线性模型的pytorch实现代码如下:

import torch

# prepare dataset      第一步:准备数据集
# x,y是矩阵,3行1列 也就是说总共有3个数据,每个数据只有1个特征
x_data = torch.tensor([[1.0],[2.0],[3.0]])          #每个元素一定要用[]括起来
y_data = torch.tensor([[2.0],[4.0],[6.0]])

#design model using class 第二步:设计模型使用的类
"""
我们的模型类应该从nn(neural network神经网络)继承。它是所有神经网络模块的基类。
成员方法__init__()和forward()必须在类nn中实现。线性包含两个成员张量:权量和偏置类nn。Linear实现了神奇的方法__call__(),
它使类的实例可以像函数一样被调用。通常会调用forward()
"""
class LinearModel(torch.nn.Module):       #把模型构建成一个类
    def __init__(self):
        super(LinearModel,self).__init__()
        # (1,1)是指输入x和输出y的特征维度,这里数据集中的x和y的特征都是1维的
        # 该线性层需要学习的参数是w和b  获取w/b的方式分别是~linear.weight/linear.bias
        self.linear = torch.nn.Linear(1,1)

    def forward(self,x):
        y_pred = self.linear(x)
        return y_pred

model = LinearModel()

# construct loss and optimizer   第三步:构造损失和优化器
# criterion(损失准则) = torch.nn.MSELoss(size_average = False)

criterion = torch.nn.MSELoss(size_average=False)
optimizer = torch.optim.SGD(model.parameters(),lr=0.02)      # model.parameters()自动完成参数的初始化操作,lr学习率

#training cycle forward, backward, update  第四步:训练前向,后向更新周期
for epoch in range(1000):
    y_pred = model(x_data)  # forward:predict
    loss = criterion(y_pred,y_data)   # forward: loss
    print(epoch,loss.item())

    optimizer.zero_grad()  # the grad computer by .backward() will be accumulated(累积). so before backward, remember set the grad to zero
    loss.backward()  # backward: autograd,自动计算梯度
    optimizer.step()  # update 参数,即更新w和b的值

print('w=',model.linear.weight.item())
print('b=',model.linear.bias.item())
x_test = torch.tensor([[4.0]])
y_test = model(x_test)
print('y_pred=',y_test)



以下是迭代100,1000次得到的结果:

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值