假如optimizer=adam(learningschedule),这里learning_schedule是一个学习率衰减PolynomialDecay,那么我想在optimizer.apply_gradient前输出当前所使用的的学习率,该如何处理呢?
print(optimizer.lr.numpy().item())
假如optimizer=adam(learningschedule),这里learning_schedule是一个学习率衰减PolynomialDecay,那么我想在optimizer.apply_gradient前输出当前所使用的的学习率,该如何处理呢?
print(optimizer.lr.numpy().item())