问题描述:我用torch1.7.1中的torch.nn.SparseAdam()进行参数优化时,一直报错:ValueError: optimizer got an empty parameter list,但我使用torch.nn.SGD()时就不会出现这个错误,运行正常。另外,在其他人电脑上,torch.nn.SparseAdam()方法也是可用的。
问题解决:考虑到以上情况,我用排除法,想到了可能是pytorch的1.7.1这个版本有缺陷,因此访问“https://download.pytorch.org/whl/cpu/torch-1.4.0%2Bcpu-cp37-cp37m-win_amd64.whl”下载安装了1.4.0版本的pytorch,问题解决。