优化模型参数,模型集成

前言

前三节我们掌握了模型和数据,这节我们将通过优化数据参数来训练,验证和测试模型。训练模型是一个迭代过程;每次迭代(称为epoch),模型对输出进行预测,计算其预测误差(loss),收集误差相对于其参数的导数,使用梯度下降优化参数

Prerequisite Code

首先从前两节中Datasets & DataLoadersBuild Model部分加载代码

import torch
from torch import nn
from torch.utils.data import DataLoader
from torchvision import datasets
from torchvision.transforms import ToTensor, Lambda

training_data = datasets.FashionMNIST(
    root="data",
    train=True,
    download=True,
    transform=ToTensor()
)

test_data = datasets.FashionMNIST(
    root="data",
    train=False,
    download=True,
    transform=ToTensor()
)

train_dataloader = DataLoader(training_data, batch_size=64)
test_dataloader = DataLoader(test_data, batch_size=64)

class NeuralNetwork(nn.Module):
    def __init__(self):
        super(NeuralNetwork, self).__init__()
        self.flatten = nn.Flatten()
        self.linear_relu_stack = nn.Sequential(
            nn.Linear(28*28, 512),
            nn.ReLU(),
            nn.Linear(512, 512),
            nn.ReLU(),
            nn.Linear(512, 10),
            nn.ReLU()
        )

    def forward(self, x):
        x = self.flatten(x)
        logits = self.linear_relu_stack(x)
        return logits

model = NeuralNetwork()

上述代码不做过多叙述,详情请参考前两节学习笔记。部分输出结果如下;

超参数

超参数是可调节的参数,可以控制模型优化过程。不同的超参数值会影响模型训练和收敛速度
我们为训练定义了以下超参数;

1.Number of Epochs 迭代数据集次数
2.Batch Size 参数更新之前通过网络传播的数据样本数量
3.学习率 在更新模型参数时,较小的值会影响学习速度,较大的值会导致训练过程中出现不可预测的情况。

learning_rate = 1e-3
batch_size = 64
epochs = 5

优化循环

设置超参数后,我们可以使用优化循环来训练和优化模型。优化循环每次迭代称为epoch
每个epoch由两部分组成:
训练:迭代训练数据集并尝试收敛到最佳参数
验证/测试:迭代测试数据集以检查模型性能是否正在提高

损失函数

当使用训练数据时,未经训练的模型可能无法给出正确答案。通过损失函数衡量结果与目标值,目的是在训练过程得出最小化的损失函数。为了计算损失值,我们使用给定数据样本的输入进行预测,并将其与真实数据值进行比较。
常见的损失函数包括用于回归任务的nn.MSELoss(均方误差)和用于分类的nn.NLLLoss(负对数似然)。nn.CrossEntropyLoss结合nn.LogSoftmaxnn.NLLLoss
我们将模型的输出logits传递给nn.CrossEntropyLoss,标准化logits并计算预测误差

# Initialize the loss function
loss_fn = nn.CrossEntropyLoss()

优化器

通过优化器在每个训练步骤中调整模型参数以减少模型误差。PyTorch将所有优化逻辑封装在optimizer中。在该模型中,我们使用SGD优化器。(ADAMRMSProp适用于不同类型的模型和数据)
现在初始优化器;

optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)

Application

接下来我们定义train_loop来优化循环,并使用test_loop测试数据来评估模型的性能。

def train_loop(dataloader, model, loss_fn, optimizer):
 size = len(dataloader.dataset)
 for batch, (X, y) in enumerate(dataloader):
     # Compute prediction and loss
     pred = model(X)
     loss = loss_fn(pred, y)

     # Backpropagation
     optimizer.zero_grad()
     loss.backward()
     optimizer.step()

     if batch % 100 == 0:
         loss, current = loss.item(), batch * len(X)
         print(f"loss: {loss:>7f}  [{current:>5d}/{size:>5d}]")


def test_loop(dataloader, model, loss_fn):
 size = len(dataloader.dataset)
 num_batches = len(dataloader)
 test_loss, correct = 0, 0

 with torch.no_grad():
     for X, y in dataloader:
         pred = model(X)
         test_loss += loss_fn(pred, y).item()
         correct += (pred.argmax(1) == y).type(torch.float).sum().item()

 test_loss /= num_batches
 correct /= size
 print(f"Test Error: \n Accuracy: {(100*correct):>0.1f}%, Avg loss: {test_loss:>8f} \n")

将损失函数和优化器初始化后,将其传递给train_loop,和test_loop。按照自己的需求去增加epochs的数量以跟踪模型改进效果。

loss_fn = nn.CrossEntropyLoss()
optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)

epochs = 10
for t in range(epochs):
 print(f"Epoch {t+1}\n-------------------------------")
 train_loop(train_dataloader, model, loss_fn, optimizer)
 test_loop(test_dataloader, model, loss_fn)
print("Done!")

部分效果展示如下;

保存和加载模型

接下来将进行最后一步,保存,加载和运行模型

import torch
import torch.onnx as onnx
import torchvision.models as models

保存和加载模型权重
PyTorch模型将学习到的参数存储在state_dict。可以通过torch.save方法保存模型

model = models.vgg16(pretrained=True)
torch.save(model.state_dict(), 'model_weights.pth')

加载模型权重之前,需先创建相同模型的实例,使用load_state_dict() 方法加载参数

model = models.vgg16() # we do not specify pretrained=True, i.e. do not load default weights
model.load_state_dict(torch.load('model_weights.pth'))
model.eval()

注意:在调用model.eval()要将dropout 批量归一化层设置为评估模式。

在加载模型权重时,需要实例化模型,可以将model传递给函数:

torch.save(model, 'model.pth')
model = torch.load('model.pth')
将模型导出到ONNX
  ```python
input_image = torch.zeros((1,3,224,224))
onnx.export(model, input_image, 'model.onnx')

通过ONNX可以在不同平台和不同编程语言上运行该模型,详情使用方式请参考官方网站https://github.com/onnx/tutorials

推荐阅读
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值