Pytorch(四) --基于Pytorch实现线性回归

每一次epoch的训练过程,总结下来就是:
① 前向传播,求预测值。
② 根据预测值和真实值求loss损失值
③ 反向传播计算梯度
④ 根据梯度,更新参数
代码如下:

#   y = 3*x
x_data = torch.tensor([[1.0],[2.0],[3.0]])
y_data = torch.tensor([[3.0],[6.0],[9.0]])


#设计模型
class LinearModel(torch.nn.Module):
    def __init__(self):#构造函数
        super(LinearModel,self).__init__()#继承父类的__init__函数
        self.linear=torch.nn.Linear(1,1)#1和1分别代表输入维度和输出维度
    def forward(self,x):#forward函数是一定要写的
        y_pred = self.linear(x)
        return y_pred
    
model = LinearModel()

#设计损失函数和优化器
criterion = torch.nn.MSELoss(size_average=False)
optimizer = torch.optim.Adam(model.parameters(),lr=0.01)

epoch_list = []
loss_list = []
#training cycle
#Forward、Backward、Update
for epoch in range(10000):
    y_pred = model(x_data)
    loss = criterion(y_pred,y_data)#计算损失值
    epoch_list.append(epoch)
    loss_list.append(loss.item())
    optimizer.zero_grad()#记得清空,否则就会累加
    loss.backward()#自动计算梯度
    optimizer.step()#更新w和b的值
print('w=',model.linear.weight.item())
print('b=',model.linear.bias.item())

最终的计算结果为:

w= 3.0
b= 1.0373099001981245e-07

Loss值的更新图如下:
在这里插入图片描述
这是优化器取SGD的情况下,下面是优化器取Adam的更新图
在这里插入图片描述
优化器为Adam时,更新过程要比SGD时慢一些。关于其他的优化器,可以自行尝试一下。
努力加油a啊

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

starlet_kiss

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值