PyTorch save and load models 保存和加载模型

本文源自 http://studyai.com/pytorch-1.4/beginner/saving_loading_models.html

本文档提供了关于PyTorch模型的保存和加载的各种用例的解决方案。 可以随意阅读整个文档,或者跳过所需的代码以获得所需的用例。

当涉及到保存和加载模型时,需要熟悉三个核心函数:

torch.save: 将序列化对象保存到磁盘。此函数使用Python的 pickle 实用程序进行序列化。使用此函数可以保存各种对象的模型、张量和字典。
torch.load: 使用 pickle 的unpickling facilities 将被pickled的对象文件反序列化到内存。此函数还可方便设备将数据加载进来(请看 Saving & Loading Model Across Devices).
torch.nn.Module.load_state_dict: 使用反序列化的 state_dict 加载模型的参数字典。 关于 state_dict 的更多信息, 请看 什么是 state_dict?.

内容提要:

什么是 state_dict?
保存 & 加载 Model 用于推断
保存 & 加载一个CheckPointCheckPoint
保存多个 Models 到一个文件
使用来自不同Model的参数热启动另一个Model
跨设备 保存 & 加载 Model

什么是 state_dict?

在PyTorch中,torch.nn.Module 模型的可学习参数(即权重和偏置)包含在模型的 parameters 中(使用 model.parameters() 访问)。 state_dict 只是一个Python字典对象,它将每个层映射到其参数张量。 请注意,只有具有可学习参数的层(卷积层、线性层等)在模型的 state_dict 中有条目(entries)。 Optimizer对象(torch.optim)还有一个 state_dict ,它包含关于优化器状态的信息以及使用的超参数。

因为 state_dict 对象是Python字典,所以可以轻松地保存、更新、修改和恢复它们, 从而为PyTorch模型和优化器添加了大量的模块化。 例子:

让我们从 Training a classifier 中使用的简单模型中查看 state_dict 。

# 定义模型
class TheModelClass(nn.Module):
    def __init__(self):
        super(TheModelClass, self).__init__()
        self.conv1 = nn.Conv2d(3, 6, 5)
        self.pool = nn.MaxPool2d(2, 2)
        self.conv2 = nn.Conv2d(6, 16, 5)
        self.fc1 = nn.Linear(16 * 5 * 5, 120)
        self.fc2 = nn.Linear(120, 84)
        self.fc3 = nn.Linear(84, 10)

    def forward(self, x):
        x = self.pool(F.relu(self.conv1(x)))
        x = self.pool(F.relu(self.conv2(x)))
        x = x.view(-1, 16 * 5 * 5)
        x = F.relu(self.fc1(x))
        x = F.relu(self.fc2(x))
        x = self.fc3(x)
        return x

# 初始化 model
model = TheModelClass()

# 初始化 optimizer
optimizer = optim.SGD(model.parameters(), lr=0.001, momentum=0.9)

# 输出 model 的 state_dict
print("Model's state_dict:")
for param_tensor in model.state_dict():
    print(param_tensor, "\t", model.state_dict()[param_tensor].size())

# 输出 optimizer 的 state_dict
print("Optimizer's state_dict:")
for var_name in optimizer.state_dict():
    print(var_name, "\t", optimizer.state_dict()[var_name])

Output:

Model's state_dict:
conv1.weight     torch.Size([6, 3, 5, 5])
conv1.bias   torch.Size([6])
conv2.weight     torch.Size([16, 6, 5, 5])
conv2.bias   torch.Size([16])
fc1.weight   torch.Size([120, 400])
fc1.bias     torch.Size([120])
fc2.weight   torch.Size([84, 120])
fc2.bias     torch.Size([84])
fc3.weight   torch.Size([10, 84])
fc3.bias     torch.Size([10])

Optimizer's state_dict:
state    {}
param_groups     [{'lr': 0.001, 'momentum': 0.9, 'dampening': 0, 'weight_decay': 0, 'nesterov': False, 'params': [4675713712, 4675713784, 4675714000, 4675714072, 4675714216, 4675714288, 4675714432, 4675714504, 4675714648, 4675714720]}]

保存 & 加载 Model 用于推断

保存/加载 state_dict (推荐方式)

保存:

torch.save(model.state_dict(), PATH)

加载:

model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH))
model.eval()

在保存模型进行推理时,只需保存经过训练的模型的学习参数即可。使用 torch.save() 函数 保存模型的 state_dict 将为以后恢复模型提供最大的灵活性,这就是为什么推荐使用它来保存模型。

一个常见的PyTorch约定是使用 .pt 或 .pth 文件扩展名保存模型。

请记住,在运行推理之前,您必须调用 model.eval() 来将 dropout 和 batch normalization layers 设置为评估模式。如果不这样做,就会产生不一致的推理结果。

Note

注意,load_state_dict() 函数接受字典对象,而 不是 保存对象的路径。 这意味着在将保存的 state_dict 传递给 load_state_dict() 函数之前,必须对其进行反序列化。 例如,不能使用 model.load_state_dict(Path) 加载 。 保存/加载 整个 Model

保存:

torch.save(model, PATH)

加载:

# Model class must be defined somewhere
model = torch.load(PATH)
model.eval()

这个保存/加载过程使用最直观的语法,涉及的代码最少。以这种方式保存模型将使用Python的 pickle 模块保存整个model。 这种方法的缺点是序列化数据被绑定到保存模型时使用的特定类和精确的目录结构。 原因是pickle没有保存模型类本身。相反,它保存到包含类的文件的路径,该类在加载时使用。 正因为如此,当您在其他项目中使用时或在重构之后,您的代码可能以各种方式中断。

一个常见的PyTorch约定是使用 .pt 或 .pth 文件扩展名保存模型。

请记住,在运行推理之前,您必须调用 model.eval() 来将 dropout 和 batch normalization layers 设置为评估模式。如果不这样做,就会产生不一致的推理结果。

保存 & 加载 Checkpoint 用于 推断 and/or 恢复训练

保存:

torch.save({
            'epoch': epoch,
            'model_state_dict': model.state_dict(),
            'optimizer_state_dict': optimizer.state_dict(),
            'loss': loss,
            ...
            }, PATH)

加载:

model = TheModelClass(*args, **kwargs)
optimizer = TheOptimizerClass(*args, **kwargs)

checkpoint = torch.load(PATH)
model.load_state_dict(checkpoint['model_state_dict'])
optimizer.load_state_dict(checkpoint['optimizer_state_dict'])
epoch = checkpoint['epoch']
loss = checkpoint['loss']

model.eval()
# - or -
model.train()

当保存一般检查点(用于推理或恢复训练)时,您必须保存的不仅仅是模型的 state_dict 。 保存优化器的 state_dict 也很重要,因为它包含缓冲区和参数,这些缓冲区和参数是随着模型的训练而更新的。 其他你可能想要保存的项是 你离开训练过程时的epoch,最新记录的训练损失,外部的 torch.nn.Embedding 层,等等。

若要保存多个组件,请将它们组织在字典中,并使用 torch.save() 对字典进行序列化。 一个常见的PyTorch约定是使用 .tar 文件扩展名保存这些检查点。

要加载这些项,首先初始化模型和优化器,然后使用 torch.load() 在本地加载字典。从这里,您可以很容易地访问保存的项目, 只需查询字典,正如您所期望的。

请记住,在运行推理之前,您必须调用 model.eval() 来将 dropout 和 batch normalization layers 设置为评估模式。如果不这样做,就会产生不一致的推理结果。 如果希望恢复training,请调用 model.train() 以确保这些层处于训练模式。 在一个文件中保存多个 Models 保存:

torch.save({
            'modelA_state_dict': modelA.state_dict(),
            'modelB_state_dict': modelB.state_dict(),
            'optimizerA_state_dict': optimizerA.state_dict(),
            'optimizerB_state_dict': optimizerB.state_dict(),
            ...
            }, PATH)

加载:

modelA = TheModelAClass(*args, **kwargs)
modelB = TheModelBClass(*args, **kwargs)
optimizerA = TheOptimizerAClass(*args, **kwargs)
optimizerB = TheOptimizerBClass(*args, **kwargs)

checkpoint = torch.load(PATH)
modelA.load_state_dict(checkpoint['modelA_state_dict'])
modelB.load_state_dict(checkpoint['modelB_state_dict'])
optimizerA.load_state_dict(checkpoint['optimizerA_state_dict'])
optimizerB.load_state_dict(checkpoint['optimizerB_state_dict'])

modelA.eval()
modelB.eval()
# - or -
modelA.train()
modelB.train()

当保存由多个 torch.nn.Modules 组成的模型时,例如GAN、sequence-to-sequence model 或 ensemble of models, 您将遵循与保存一般检查点相同的方法。换句话说,保存每个模型的 state_dict 的字典和相应的优化器。 如前所述,只需将任何其他项目追加到字典中,就可以保存可能帮助您恢复训练的任何其他项目。

一个常见的PyTorch约定是使用 .tar 文件扩展名保存这些检查点。

要加载模型,首先初始化模型和优化器,然后使用 torch.load() 本地加载字典。 从这里,您可以很容易地访问保存的项目,只需查询字典,正如您所期望的。

请记住,在运行推理之前,您必须调用 model.eval() 来将 dropout 和 batch normalization layers 设置为评估模式。如果不这样做,就会产生不一致的推理结果。 如果希望恢复training,请调用 model.train() 以确保这些层处于训练模式。 使用来自不同Model的参数热启动另一个Model 保存:

torch.save(modelA.state_dict(), PATH)

加载:

modelB = TheModelBClass(*args, **kwargs)
modelB.load_state_dict(torch.load(PATH), strict=False)

当迁移学习或训练一个新的复杂模型时,部分加载模型或加载部分模型是常见的场景。 利用经过训练的参数,即使只有少数参数是可用的,也将有助于启动训练过程, 并有望帮助您的模型比从头开始的训练更快地收敛。

无论您是从缺少一些键的部分 state_dict 加载,还是加载一个 state_dict 中的键比您要加载的模型多, 您都可以在 load_state_dict() 函数中将 strict 参数设置为 false ,以忽略不匹配的键。

如果希望将参数从一个层加载到另一个层,但有些键不匹配,则只需更改要加载的 state_dict 中参数键的名称, 以与加载到的模型中的键匹配。 跨设备 保存 & 加载 Model 保存在GPU, 加载到CPU

保存:

torch.save(model.state_dict(), PATH)

加载:

device = torch.device('cpu')
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH, map_location=device))

在CPU上加载用GPU训练的模型时,将 torch.device('cpu') 传递到 torch.load() 函数中的 map_location 参数。 在这种情况下,在张量基础上的存储将使用 map_location 参数动态地重映射到CPU设备。 保存在 GPU, 加载到 GPU

保存:

torch.save(model.state_dict(), PATH)

加载:

device = torch.device("cuda")
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH))
model.to(device)
# Make sure to call input = input.to(device) on any input tensors that you feed to the model

当把在GPU上训练和保存的模型加载到GPU上时,只需使用 model.to(torch.device('cuda')) 将初始化的 model 转换为CUDA优化模型。 此外,确保在所有模型输入上使用 .to(torch.device('cuda')) 函数来为模型准备数据。 注意,调用 my_tensor.to(device) 将返回GPU上 my_tensor 的新副本。它 不会 覆盖 my_tensor 。 因此,请记住手动覆盖张量:my_tensor = my_tensor.to(torch.device('cuda')) 。 保存在CPU, 加载到GPU

保存:

torch.save(model.state_dict(), PATH)

加载:

device = torch.device("cuda")
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH, map_location="cuda:0"))  # Choose whatever GPU device number you want
model.to(device)
# 确保调用 input = input.to(device) 在任意的输入tensors上

当把在CPU上训练和保存的模型 加载到GPU上时,请将 torch.load() 函数中的 map_location 参数设置为 cuda:device_id 。这会将模型加载到给定的GPU设备上。接下来,请确保调用 model.to(torch.device('cuda')) 将模型的参数张量转换为CUDA张量。 最后,确保在所有模型输入上使用 .to(torch.device('cuda')) 函数来为CUDA优化模型准备数据。 注意,调用 my_tensor.to(device) 将返回GPU上 my_tensor 的新副本。它不会覆盖 my_tensor 。 因此,请记住手动覆盖张量:my_tensor = my_tensor.to(torch.device('cuda')) 。

# 保存 ``torch.nn.DataParallel`` Models
# ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
#
# **保存:**
#
# .. code:: python
#
#    torch.save(model.module.state_dict(), PATH)
#
# **加载:**
#
# .. code:: python
#
#    # 加载到任何你想加载的设备上
#
# ``torch.nn.DataParallel`` 是一个支持并行GPU利用率的模型包装器。
# 要一般性地保存 ``DataParallel`` 模型,请保存 ``model.module.state_dict()``。
# 这样,您就可以灵活地将模型加载到任何您想要的设备上。
#
  • 11
    点赞
  • 55
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 要在 PyTorch保存训练好的模型,可以使用 PyTorch 的内置函数 `torch.save()`。下面是保存模型的基本步骤: 1. 在训练完成后,将模型保存为字典类型,包括模型的状态字典和其他必要的参数。 ```python model_state = { 'state_dict': model.state_dict(), 'optimizer': optimizer.state_dict(), 'epoch': epoch, 'loss': loss } ``` 2. 使用 `torch.save()` 函数将模型保存到指定的文件路径。 ```python torch.save(model_state, 'model.pt') ``` 3. 若要加载模型,请使用 `torch.load()` 函数来加载状态字典并将其赋值给模型。 ```python model_state = torch.load('model.pt') model.load_state_dict(model_state['state_dict']) ``` 这些步骤可以适用于各种不同的 PyTorch 模型。另外,如果您想要更好地控制保存的内容和格式,可以使用 PyTorch 的序列化函数将模型保存为自定义格式的文件。 ### 回答2: 要保存训练好的模型,我们可以使用PyTorchtorch.save()函数。该函数接受两个参数:第一个是要保存模型的状态字典,第二个是保存路径。 首先,我们需要定义一个模型的实例,然后在训练过程中,使用optimizer进行模型的优化。当训练完成后,我们可以使用torch.save()函数将模型的状态字典保存下来。 下面是保存模型的示例代码: ```python import torch import torch.nn as nn import torch.optim as optim import torchvision.models as models # 定义一个模型实例 model = models.resnet18() # 定义优化器 optimizer = optim.Adam(model.parameters(), lr=0.001) # ... 在训练过程中进行模型训练 ... # 训练完成后,保存模型的状态字典 torch.save(model.state_dict(), 'model.pth') ``` 以上代码中,我们使用了ResNet18作为示例模型,Adam作为优化器。在训练完成后,使用torch.save()函数将模型的状态字典保存到'model.pth'文件中。 注意,只保存模型的状态字典是因为它包含了模型的参数和缓存信息,但不包含模型的结构。在加载模型时,我们需要先创建一个模型实例,然后使用torch.load()函数加载保存模型状态字典。接下来,通过调用模型实例的load_state_dict()方法加载模型的状态字典,使模型获取保存的参数与缓存信息。 希望以上回答对您有所帮助! ### 回答3: 在PyTorch保存训练好的模型可以通过以下步骤完成: 1. 导入必要的库: ``` import torch import torch.nn as nn import torch.optim as optim ``` 2. 定义模型结构: ``` class MyModel(nn.Module): def __init__(self): super(MyModel, self).__init__() self.fc = nn.Linear(input_size, output_size) def forward(self, x): x = self.fc(x) return x ``` 3. 创建模型实例: ``` model = MyModel() ``` 4. 定义损失函数和优化器: ``` criterion = nn.CrossEntropyLoss() optimizer = optim.Adam(model.parameters(), lr=learning_rate) ``` 5. 训练模型: ``` for epoch in range(num_epochs): # 前向传播 outputs = model(inputs) loss = criterion(outputs, labels) # 反向传播和优化 optimizer.zero_grad() loss.backward() optimizer.step() ``` 6. 保存模型: ``` torch.save(model.state_dict(), 'model.pth') ``` 此代码将模型的参数保存到名为`model.pth`的文件中。 7. 加载模型: ``` model = MyModel() model.load_state_dict(torch.load('model.pth')) model.eval() ``` 通过加载参数文件,我们可以将模型的状态恢复到训练完成后的状态,然后使用`model.eval()`将模型设置为评估模式。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值