Pytorch中加载预训练模型/模型参数-torch.load()

语法

torch.load(f, 
			map_location=None,
 			pickle_module=<module 'pickle' from '/opt/conda/lib/python3.6/pickle.py'>, 
 			**pickle_load_args)

参数理解

f – 类文件对象 (返回文件描述符)或一个保存文件名的字符串
map_location – 一个函数或字典规定如何remap存储位置
pickle_module – 用于unpickling元数据和对象的模块 (必须匹配序列化文件时的pickle_module )

函数简述

从文件中加载用 torch.save()保存的对象。

torch.load()使用pickle的unpickle工具将pickle的对象文件反序列化到内存中。它们默认首先在CPU上被反序列化,然后被移动到保存它们的设备。

我们可以配置map_location参数动态地进行内存重映射,使其能从不同的设备上读取文件。

一般调用时,需两个参数: storage 和 location tag.

  • Storage 参数将是驻留在 CPU 上的存储的最初反序列化。
  • 每个序列化存储都有一个与其相关联的位置标记(location tag),该标记标识存储它的设备,并且该标记是传递给map_location的第二个参数。内置的位置标签是 CPU 张量的“ CPU”和 CUDA 张量的“ CUDA: device _ id”(例如“ CUDA: 2”)。

map_location 返回一个 None 或者 storage

  • 如果返回一个storage,则作为最后的反序列化结果,且已经存储在正确的设备上
  • 如果返回一个None,则直接返回一个默认设置产生的对象

如果map_location是一个torch.device对象或一个包含设备标签的字符串,它表示所有张量应该被加载的位置。

如果map_location是一个dict,它将用于将文件中出现的位置标记(键)重新映射为指定存储位置的位置标记(值)。

用户也可以通过register_package进行扩展,使用自己定义的标记和反序列化方法。

Example

# 默认设置
>>> torch.load('tensors.pt')
# Load all tensors onto the CPU
>>> torch.load('tensors.pt', map_location=torch.device('cpu'))
# Load all tensors onto the CPU, using a function
>>> torch.load('tensors.pt', map_location=lambda storage, loc: storage)
# Load all tensors onto GPU 1
>>> torch.load('tensors.pt', map_location=lambda storage, loc: storage.cuda(1))
# Map tensors from GPU 1 to GPU 0
>>> torch.load('tensors.pt', map_location={'cuda:1':'cuda:0'})
# Load tensor from io.BytesIO object
>>> with open('tensor.pt', 'rb') as f:
        buffer = io.BytesIO(f.read())
>>> torch.load(buffer)
# Load a module with 'ascii' encoding for unpickling
>>> torch.load('module.pt', encoding='ascii')

注意事项

  • torch.load()隐式地使用pickle模块,这是不安全的。可以构造恶意pickle数据,在unpickle期间执行任意代码。永远不要加载可能来自不受信任的来源或可能被篡改的数据。只加载您信任的数据。
  • 当你在一个包含GPU张量的文件上调用torch.load()时,默认情况下这些张量会被加载到GPU。您可以调用torch.load(…, map_location=‘cpu’),然后load_state_dict(),以避免加载一个模型检查点时GPU内存激增。
  • 默认情况下,我们将字节字符串解码为utf-8。这是为了避免一个常见的错误情况UnicodeDecodeError: 'ascii’编解码器不能解码字节0x…在python3中加载由python2保存的文件时。如果这个默认是不正确的,你可以使用一个额外的编码关键字参数指定应该如何加载这些对象,例如,编码= ’ latin1”中的一个解码字符串使用latin1编码中的一个,和编码=“字节”让他们作为字节数组可以解码后byte_array.decode(…)。

本文参考官方文档:https://pytorch.org/docs/stable/generated/torch.load.html?highlight=torch%20load#torch.load

  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PyTorch是一个功能强大的机器学习框架。它使用动态计算图和高效的自动微分来加速深度学习。在实际编码的过程,我们经常会使用预训练模型来加速模型训练和进一步提升模型准确率,不过一些时候我们并不需要整个预训练模型的所有参数来进行训练,而是只需要加载预训练模型的部分参数。那么在PyTorch,我们要如何来加载预训练模型的部分参数呢? 要想加载预训练模型的部分参数,在PyTorch,我们可以使用load_state_dict()函数实现。load_state_dict()函数在PyTorch是将参数拷贝到新模型的函数,新模型预训练模型的网络结构应该是相同的。然后我们可以通过load_state_dict()函数的参数prefix和exclude来实现部分参数加载。prefix参数是指定了预训练模型需要加载参数的前缀,而exclude参数是指定了我们不需要加载参数。 例如,我们有一个预训练模型‘resnet18.pth’,它包含了resnet18模型在imagenet上训练好的模型参数。我们想要使用这个模型来进行一些迁移学习,那只需要加载resnet18最后一层fc层之前的所有模型参数,而不需要加载最后一层fc层的权重。那么,我们可以通过以下代码来实现: ``` import torch.utils.model_zoo as model_zoo import torchvision.models as models # 定义一个resnet18模型 resnet18 = models.resnet18(pretrained=False) # 加载预训练模型的所有参数 model_url = 'https://download.pytorch.org/models/resnet18-5c106cde.pth' resnet18.load_state_dict(model_zoo.load_url(model_url)) # 获取所有要加载参数的名字 params_to_update = [] for name, param in resnet18.named_parameters(): if 'fc' not in name: params_to_update.append(name) # 加载部分预训练模型参数 state_dict = model_zoo.load_url(model_url) model_dict = resnet18.state_dict() for name, value in state_dict.items(): if name.startswith(tuple(params_to_update)): model_dict.update({name: value}) resnet18.load_state_dict(model_dict) ``` 上述代码先是定义了一个resnet18模型,然后加载resnet18预训练模型的所有参数。通过获取所有需要加载参数的名字,然后将其加载到新模型,从而实现了加载预训练模型的部分参数的目的。 总结: 通过使用load_state_dict()函数的prefix和exclude参数,在PyTorch实现了对预训练模型的部分参数加载。这将使我们在使用预训练模型时更加灵活和高效。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值