pytorch入门 之 自动求导机制(autograd)

本文介绍了如何在PyTorch中进行深度学习模型训练,包括每次迭代后清零梯度的重要性,反向传播的运用,以及一个线性回归模型的实现。通过实例演示了如何使用`optimizer.zero_grad()`、`z.backward()`以及`optimizer.step()`来确保模型的有效训练过程。
摘要由CSDN通过智能技术生成

记得每一次迭代后都要将梯度清零

optimizer.zero_grad()

1、反向传播波计算

z.backward(retain_graph=True) #如果不清空,b.grad梯度会累加起来
w.grad
b.grad

2、训练模型

for epoch in range(epochs):
    epoch += 1
    #注意转行成tensor
    inputs = torch.from_numpy(x_train)
    labels = torch.from_numpy(y_train)

    #每一次迭代,梯度要清零
    optimizer.zero_grad()

    #前向传播
    outputs = model(inputs)

    #反向传播
    loss = criterion(outputs, labels)

    #更新权重参数
    optimizer.step()
    if epoch % 50 == 0:
        print('epoch {}, loss {}'.format(epoch, loss.item()))

3、线性回归模型(一个自己写前向传播的例子)

class LinearRegressionModel(nn.Module):
    def __init__(self, input_dim, output_dim):
        super(LinearRegressionModel,self).__init__()
        self.linear = nn.Linear(input_dim, output_dim)

    def forward(self,x):
        out = self.linear(x)
        return out
input_dim = 1
output_dim = 1

model = LinearRegressionModel(input_dim, output_dim)

不管你想设计多复杂的模型,只要把forward前向传播写好,反向传播在pytorch里面又模块可以调用。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值