Possible Solution 1
在初始化LightningModule时在__init__中加上 self.save_hyperparameters() [1]
Possible Solution 2
检查所保存的超参数中是否有函数句柄之类的元素,并将其进行替换。如果所保存的超参数中有函数句柄之类的元素,将会导致self.save_hyperparameters()失败。[2]
Reference
[1]: load_from_checkpoint: TypeError: init() missing 1 required positional argument
[2]: 在PyTorch Lightning下加载指定的预训练模型进行测试