【功能模块】
【mindspore1.7】【boost_level功能】
【操作步骤&问题现象】
1、设置成O0时可以正常训练
2、设置成O1、O2时报错
解答:
AdamWeightDecay优化器缺少注册init args的装饰器,你可以通过修改mindspore包规避该问题 1.找到mindspore的安装路径并进入:pip show mindspore
2. 打开./nn/optim/adam.py文件
3.修改文件中class AdamWeightDecay(Optimizer)优化器的类定义,给__init__添加@opt_init_args_register装饰器
``` @opt_init_args_register def __init__(self, params, learning_rate=1e-3, beta1=0.9, beta2=0.999, eps=1e-6, weight_decay=0.0):
```