keras 自定义schedule_learning rate

自定义一个关于学习率的回调函数

定义函数,可以自定义修改学习率

比如我设置的lr = [0.01, 0.01, 0.001, 0.0001]
epochs = [5, 10, 15, 19, 23]

这跟tensorflow有点不一样,tensorflow自带的需要lr比epoch多设置一个

def scheduler(epoch):
	lr = [0.01,  0.01, 0.001, 0.0001]
	epochs = [5, 10, 15, 19, 23]
    if epoch in epochs:
        index_lr = epochs.index(epoch)
        lr_now = lr_inputs[index_lr]
        lr = K.get_value(self.model.optimizer.lr)
        K.set_value(self.model.optimizer.lr, lr_now)
        print("pre_lr {}".format(lr))
        print("lr changed to {}".format(lr_now))
	return K.get_value(self.model.optimizer.lr)

reduce_lr = LearningRateScheduler(scheduler)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值