Keras打印tensor的值以及学习率

 keras 打印 tensor 的值_小又欠的博客-CSDN博客_keras查看tensor的值keras 打印 tensor 的值在调试时,此问题困扰我许久网上大多都是 sess.run(),且也是 tensorflow1 中的版本我觉得下面这条语句更实用简洁import tensorflow.keras.backend as KK.get_value(my_variable)https://blog.csdn.net/Hilary_Choi/article/details/123412158

tensroflow-keras下tensorboard以及界面打印学习率_哗啦呼啦嘿的博客-CSDN博客'''参考stackoverflow:https://stackoverflow.com/questions/49127214/keras-how-to-output-learning-rate-onto-tensorboard'''############# 添加部分 ###############class LearningRateLogger(tf.keras.callbacks.Callback): def __init__(self): super().__i.https://blog.csdn.net/weixin_40446557/article/details/116719854

网上大多都是 sess.run(),且也是 tensorflow1 中的版本
tf.keras, tf2.0以后采用如下方式。 

import tensorflow.keras.backend as K
K.get_value(my_variable)

如下也可更改为logs["learning_rate"] = k.get_value(self.model.optimizer.lr)

不同版本测试之后,就知道了。

'''
参考stackoverflow:
https://stackoverflow.com/questions/49127214/keras-how-to-output-learning-rate-onto-tensorboard
'''
 
############# 添加部分 ###############
class LearningRateLogger(tf.keras.callbacks.Callback):
    def __init__(self):
        super().__init__()
        self._supports_tf_logs = True
 
    def on_epoch_end(self, epoch, logs=None):
        if logs is None or "learning_rate" in logs:
            return
        logs["learning_rate"] = self.model.optimizer.lr
 
callbacks = [
           tf.keras.callbacks.ModelCheckpoint(
               "densenet_crnn_qunt_{epoch}.h5",
                monitor='val_accuracy',
                save_best_only=False,
                verbose=2,
                save_weights_only=False,
                period=1),
            tf.keras.callbacks.EarlyStopping(monitor='val_loss',
                                            patience=5,
                                            mode='auto',
                                            restore_best_weights=True),
            ######### 添加部分###########
            LearningRateLogger(),
            tf.keras.callbacks.TensorBoard(log_dir='logs/',histogram_freq=0),
            tf.keras.callbacks.ReduceLROnPlateau(monitor='val_loss', factor=0.2, patience=5, min_lr=0.00000001,verbose=2),
]
 
quant_model.fit(train_ds, 
    epochs=args.epochs,
    validation_data=val_ds,
    callbacks=callbacks,)

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值