Pytorch学习 - 保存模型和重新加载

参考资料:
Pytorch官方文档链接
某博客

1. 3个函数

  1. torch.save() : 讲一个序列化对象保存到磁盘中。使用python的pickle工具。 模型 (model)、张量 (tensor) 和各种对象的字典 (dict) 都可以用这个函数保存。
  2. torch.load() :将pickle对象文件反序列化到内存中,也便于将数据加载到设备中
  3. torch.nn.Module.load_state_dict():加载模型的参数 state_dict介绍
    Pytorch中,torch.nn.Module里面的可学习参数(weights和biases)都存在model.parameters()中。

2. 模型不同后缀名的区别

pytorch常见保存模型文件的后缀名有 .pt , .pth,.pkl。其实它们并不是在格式上有区别,只是后缀不同而已(仅此而已),在用torch.save()函数保存模型文件时,各人有不同的喜好,有些人喜欢用.pt后缀,有些人喜欢用.pth或.pkl.用相同的torch.save()语句保存出来的模型文件没有什么不同。

3. 保存和重载模型

保存模型主要有两种方式:
(1)只保存模型的参数,之后使用时再重新构建一个同样结构的新模型,然后把保存的参数导入新模型。(推荐)

# 保存
torch.save(**model.state_dict()**,PATH)
# 读取
model = TheModelClass(*args,**kwargs) # 需要重新定义模型结构
**model.load_state_dict(torch.load(PATH))**  # 根据模型结构,调用模型参数
model.eval() # ??

(2)将整个模型保存下来,然后直接加载整个模型。(有点耗费内存…)

# 保存
torch.save(**model**,PATH)
# 读取
**model = torch.load(PATH)**  # 不需要重构模型结构,直接load即可
model.eval()

(3)如果没有训练完,仍然需要继续训练,除了model_state_dict需要保存,还需要保存optimizer_state_dict,epoch和loss。

# 保存
torch.save({
            'epoch': epoch,
            'model_state_dict': model.state_dict(),
            'optimizer_state_dict': optimizer.state_dict(),
            'loss': loss,
            ...
            }, PATH)

# 加载 相比于前面只需要加载load_state_dict,还需要加载optimizer,epoch,loss等参数
model = TheModelClass(*args, **kwargs)
optimizer = TheOptimizerClass(*args, **kwargs)

checkpoint = torch.load(PATH)
model.load_state_dict(checkpoint['model_state_dict'])
optimizer.load_state_dict(checkpoint['optimizer_state_dict'])
epoch = checkpoint['epoch']
loss = checkpoint['loss']

model.eval()
# - or -
model.train()
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值