模型训练后期学习率调整策略

本文探讨了在深度学习模型训练后期如何调整学习率以优化模型性能。Keras提供了两种策略:LearningRateScheduler允许根据epoch自定义学习率调整函数;ReduceLROnPlateau则会在监测指标停止改善时自动降低学习率。这两个回调函数通过设定参数如schedule、factor、patience等,帮助找到最佳学习率,从而降低val_loss。
摘要由CSDN通过智能技术生成

虽然Adam等优化器能自适应调整学习率,但是到了模型训练后期仍需要手动调整学习率来提高模型性能,降低vall_loss值。

以keras为例,keras提供了两种学习率调整策略,可以通过回调函数实现。

1. LearningRateScheduler

keras.callbacks.LearningRateScheduler(schedule)

该回调函数是学习率调度器。

参数

  • schedule: 该函数以eopch为监测量(从0算起的整数),返回一个新的学习率(浮点数)

代码

import keras.backend as K
from keras.callbacks import LearningRateScheduler
 
def scheduler(epoch):
    # 每隔20个epoch,学习率减小为原来的1/2
    if epoch % 20 == 0 and epoch != 0:
        lr = K.get_value(model.optimizer.lr)
        K.set_value(model.optimizer.lr, lr * 0.5)
        print("lr changed to {}".format(lr * 0.5))
    return K.get_value(model.optimizer.lr)
 
reduce_lr = LearningRateScheduler(scheduler)
model.fit(train_x, train_y, batch_size=32, epochs=300, callbacks=[reduce_lr])
def step_decay
  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值