class torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer,
mode,
factor,
patience,
verbose,
threshold,
threshold_mode,
cooldown,
min_lr,
eps=)
参数
- optimizer - 网络的优化器
- mode - default 'min'
- 'min' - 监控量停止下降的时候,学习率将减小
- 'max' - 监控量停止上升的时候,学习率将减小 为'min'
- factor - 学习率每次降低倍数,new_lr = old_lr * factor
- patience - 容忍网路的性能不提升的次数,高于这个次数就降低学习率
- verbose - True,则为每次更新向stdout输出一条消息。 default False
- threshold - 测量新最佳值的阈值,仅关注重大变化。 default 1e-4
- cooldown - 减少lr后恢复正常操作之前要等待的时期数。 default 0。
- min_lr - 学习率的下限
- eps - 适用于lr的最小衰减。 如果新旧lr之间的差异小于eps,则忽略更新。 default 1e-8。