报错就不截图了,gogole后发现在pytorch的github上发现是AdamW优化器的一个bug,git #52944
原问题地址
[optim] bugfix when all parameters have no grad
已经有大佬解决了,不太会用git,所以只能手动去改源文件
先找到bug报错的adamW优化器源代码,需要改的地方就三个文件,每个文件分别把对应的那行代码挪一下:
- …/torch/optim/adadelta.py
52 for group in self.param_groups:
53 params_with_grad = []
54 grads = []
55 square_avgs = []
56 acc_deltas = []
57 lr, rho