前言
模型的本质是一堆用某种结构存储起来的参数
用数据对模型进行训练后得到了比较理想的模型,就需要将其存储起来,然后在需要用到的时候加载一下直接使用。
保存的时候有两种方式:
一种方式是直接将整个模型保存下来,之后直接加载整个模型,但这样会比较耗内存,但内存吗嘛,不是什么大问题,我遇到的模型一般不超过100M。这都是很大的了;
另一种是只保存模型的参数,之后用到的时候再创建一个同样结构的新模型,然后把所保存的参数导入新模型。(也可以,也挺方便的)
一、保存整个模型
#保存
torch.save(the_model, PATH)
#读取
model = torch.load(PATH)
读取时不需要先定义model,比如:model=resnet50()。直接加载赋值就行。
二、只保存参数
保存参数:
torch.save(model.state_dict(),path)
读取模型:
# 测试所保存的模型
m_state_dict = torch.load('rnn.pt')
new_m = LSTM(input_size=1, hidden_size=10, num_layers=2).to(device)
new_m.load_state_dict(m_state_dict)
1、加载参数
2、实例化模型
3、将参数赋予模型
也可以在定义模型后直接
new_m.load_state_dict(torch.load('rnn.pt'))
模型不同后缀名的区别
经常会看到后缀名为.pt, .pth, .pkl的pytorch模型文件,其实它们并不是在格式上有区别,只是后缀不同而已(仅此而已)。
在pytorch官方的文档/代码里,有用.pt的,也有用.pth的。一般惯例是使用.pth,但是官方文档里貌似.pt更多,而且官方也不是很在意固定用一种。
总结
持续更新