Pytorch快速入门

1.一个简单的例子

import torch

"""第一步:定义自己的模型"""
class MyModel(torch.nn.Module):
    def __init__(self):
        super().__init__()
        # 声明并初始化模型所需的神经网络层
        self.mlp = torch.nn.Linear(1, 1)  # y = ax + b形式

    def forward(self, x):
        # 将__init__()声明的网络层前后连接起来
        output = self.mlp(x)
        return output

"""第二步:初始化模型,定义损失函数、优化器"""
my_model = MyModel()
LOSS = torch.nn.MSELoss()
opt = torch.optim.SGD(my_model.parameters(), lr=0.01)  # 把需要更新的参数,学习率填入优化器

# 处理数据
x = torch.tensor([[0], [1]], dtype=torch.float32)
y = torch.tensor([[1], [2]], dtype=torch.float32)

"""第三步:模型训练"""
for epoch in range(1000):
    my_model.train()  # train模式最好是放在epoch里面,防止测试时进入eval模型,再转为训练时就没进入train模式
    y_pred = my_model(x)  # 由于输入数据少,这里一个batch就是一个Epoch
    loss = LOSS(y_pred, y)  # 计算Loss
    my_model.zero_grad()  # 模型梯度清零
    loss.backward()  # 梯度反传
    opt.step()  # 模型参数更新

"""目标函数为y=x+1,打印预测的函数"""
print(f'目标函数:y=x+1\n'
      f'模型预测函数:y={float(my_model.mlp.weight.data)}x+{float(my_model.mlp.bias)}')

2.更好的模型参数优化:动态学习率 Scheduler

普通的优化器optimizer学习率从训练开始到结束都是不变

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值