-> 错误如题;
-> 错误是在使用PyTorch自带的循环学习率API<torch.optim.lr_schedualr.CyclicLR>以及使用Adam优化器时出现的;
-> 具体原因:原因在报错信息中可得知,当CyclicLR的参数cycle_momentum为True,优化器必须是支持momentum参数的。因为cycle_momentum参数默认就是True而Adam优化器本身不带momentum参数的,所以就出现了如题的错误。
附上PyTorch的CyclicLR源码截图:
==》》解决办法: 将CyclicLR的cycle_momentum参数设置为False, 或者换一个支持momentum的优化器就可以了。