Pytorch模型保存/加载方式:①只保存/加载模型参数【推荐】;②保存/加载整个模型(结构+参数);③保存模型Checkpoint;④CPU/GPU保存加载【后缀:pt、pth、pkl】

当提到保存和加载模型时,有三个核心功能需要熟悉:torch.save:将序列化的对象保存到disk。这个函数使用Python的pickle实用程序进行序列化。使用这个函数可以保存各种对象的模型、张量和字典。torch.load:使用pickle unpickle工具将pickle的对象文件反序列化为内存。torch.nn.Module.load_state_dict:使用反序列化状态字典加载model’s参数字典。一、模型保存与调用方式一:只保存模型参数1、模型保存model = TheMo
摘要由CSDN通过智能技术生成

当提到保存和加载模型时,有三个核心功能需要熟悉:

  1. torch.save:将序列化的对象保存到disk。这个函数使用Python的pickle实用程序进行序列化。使用这个函数可以保存各种对象的模型、张量和字典。
  2. torch.load:使用pickle unpickle工具将pickle的对象文件反序列化为内存。
  3. torch.nn.Module.load_state_dict:使用反序列化状态字典加载model’s参数字典。

一、模型保存与调用方式一:只保存模型参数

1、模型保存

model = TheModelClass(*args, **kwargs)
# ------------- 模型训练: 开始 -------------
......
# ------------- 模型训练: 结束 -------------
PATH = r'.\saved_model\model_state_dict_step_01.pt'
torch.save(model.state_dict(), PATH)

在保存模型进行推理时,只需要保存训练过的模型的学习参数即可。

一个常见的PyTorch约定是使用.pt或.pth文件扩展名保存模型。

2、模型加载

# 重构模型结构(与保存的模型结构要完全一致)
model = TheModelClass(*args, **kwargs)
# 根据模型结构,调用存储的模型参数
model.load_state_dict(torch.load(PATH))

注意,load_state_dict()函数接受一个dictionary对象,而不是保存对象的路径。这意味着您必须在将保存的state_dict传至load_state_dict()函数之前反序列化它(用torch.load(PATH)进行反序列化)。

加载后的模型如果用于验证或测试,则先调用model.eval(),以便在运行推断之前将dropout和batch规范化层设置为评估模式。如果不这样做,将会产生不一致的推断结果。

二、模型保存与调用方式二:保存整个模型(结构+参数)

1、模型保存

model = TheModelClass(*args,<
  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值