深度学习中为什么保存的训练pth模型权重那么大(附解决代码)

为什么训练保存的pth模型权重那么大,别人的训练保存的那么小?

因为别人训练模型时,只保存了模型,而你训练的模型还保存了其它一些参数,比如优化器(optimizer)、调节学习率(lr_scheduler)、轮数(epoch)等一些其他参数信息,所以我们训练的模型很大。

我们可以通过看训练脚本train.py,可以知道保存了哪些模型参数,训练时一般都会将优化器(optimizer)、调节学习率(lr_scheduler)、轮数(epoch)等一些其他参数信息,比如以下代码:

在这里插入图片描述

之所以保存这些信息,是因为我们可以通过这些参数接着训练(比如我们训练200个epoch结束后,结果还没有收敛,我们就可以通过第200轮保存得到的.pth模型,接着训练)

但是我们可以将我们训练好的模型变小,将模型的其他参数去掉,只保存训练好的模型参数。执行以下代码就可以获得没有其他参数的模型。

import torch
from src import net # 导入你训练的模型网络
PATH = r"D:/model/model.pth"  # 更改为你的模型路径
model = net()  
checkpoint = torch.load(PATH)  
model.load_state_dict(checkpoint['model'])  # 只加载模型的权重
save_file = {"model": model.state_dict()} 
torch.save(save_file, "model.pth")  # 保存文件信息
  • 7
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值