背景
想要加载一个叫xxx.pth
的模型,并且查看模型的各个模块
model=Model()
model=torch.load(base+'res2net50_v1b_26w_4s-3cf99910.pth')
for name, param in model.named_parameters():
print(name)
结果提示如题错误。
解决
才发现这个pth不是模型整个,而是save了一个dict……名字具有误导性哈哈。
torch的save既可以只保存一个dict,里面是每个层的weights,那么在加载的时候需要先定义一个相同结构的model,然后再model load:
torch.save_dict(B.state_dict(),'./newbee')
A=Model() # A和B的结构是相同的
A.load_state(torch.load('newbee'))
当然除了这样节省存储的方式,也可以直接把整个模型保存
torch.save(A,'./aa')
然后直接model=torch.load('aa')
。
其实在出现如题的错误是时候,他已经告诉你了,torch load进来的是一个OrderedDict
而不是torch module。