keras自带的监控变量就是mse,mae等,有时我们想自定义监控的变量,比如学习率,或者其它一些我们自定义的参数,keras自定义监控变量和自定义损失函数很类似,都是通过这个类似内部函数的方式,例如监控学习率。
# 监控学习率
def get_lr_metric(optimizer):
def lr(y_true,y_pred):
return optimizer.lr
return lr
class LRCallback(Callback):
def on_epoch_end(self, epoch, logs=None):
lr = self.model.optimizer.lr
decay = self.model.optimizer.decay
iterations = self.model.optimizer.iterations
lr_with_decay = lr / (1. + decay * K.cast(iterations, K.dtype(decay)))
return K.eval(lr_with_decay)
optimizer = keras.optimizers.adam(lr=1e-3,decay=0.02)
model.compile(loss = model_dice,optimizer= optimizer,metrics=['mse','mae',lr_metric])
learning_rate_callback = LRCallback()
callbacks_list = [checkpoint,learning_rate_callback]
history = model.fit(...,callbacks = callbacks_list)
注意通过这种嵌套函数方式,且内部函数的输入参数为y_true,y_pred,实际可能没用。
另外返回的必须是一个数字,如果想有多个返回值,我试了不可以,如果有知道的朋友请不吝赐教。