屏蔽tensorflow中输出的log信息方法

TensorFlow可以通过配置环境变量 ‘TF_CPP_MIN_LOG_LEVEL’ 的值,控制TensorFlow是否屏蔽通知信息、警告、报错等输出信息:
TF_CPP_MIN_LOG_LEVEL = 0 : 默认值,输出所有信息;
TF_CPP_MIN_LOG_LEVEL = 1 : 屏蔽通知信息;
TF_CPP_MIN_LOG_LEVEL = 2 : 屏蔽通知信息和警告信息;
TF_CPP_MIN_LOG_LEVEL = 3 : 屏蔽通知信息、警告信息和报错信息;

使用方法:

import os
import tensorflow as tf
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '3'

如果上述方法没有起到相应的效果,还是有很多log信息输出,如下图:
在这里插入图片描述把import TF 放到 os.environ 下面即可:
在这里插入图片描述

  • 3
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
输出学习率可以通过在 TensorFlow 模型训练的过程添加一些特定的代码来实现。在 TensorFlow ,学习率是作为一个超参数(即不通过训练数据而需要设置的参数)传递给优化器的。因此,在训练过程,可以通过以下两种方法输出学习率: 1.通过 TensorBoard 输出学习率: 可以使用 TensorFlow 的 TensorBoard 工具来监控训练过程的学习率。要在 TensorBoard 监控学习率,只需要将学习率添加为日志信息的一部分,然后使用 TensorBoard 的 scalar_summary 函数来输出。具体实现代码如下: ``` import tensorflow as tf # 设置学习率为 0.01 learning_rate = 0.01 ... # 优化器定义(使用 adam 算法) optimizer = tf.train.AdamOptimizer(learning_rate).minimize(loss) ... with tf.Session() as sess: # 可视化学习率 tf.summary.scalar('learning_rate', learning_rate) merged_summary_op = tf.summary.merge_all() summary_writer = tf.summary.FileWriter(log_dir, sess.graph) ... # 输出学习率 summary_str = sess.run(merged_summary_op) summary_writer.add_summary(summary_str, step) ``` 2.通过使用 TensorFlow 的回调函数实现动态输出学习率: 除了通过 TensorBoard 可以实输出学习率之外,还可以使用 TensorFlow 的回调函数来动态输出学习率。TensorFlow 的回调函数是在每个 epoch 结束的代码块,可以添加任意自定义的代码。当然,其也可以输出学习率。具体实现代码如下: ``` import tensorflow as tf # 设置学习率为 0.01 learning_rate = 0.01 ... def print_lr(epoch, logs): print("Learning rate:", learning_rate) ... with tf.Session() as sess: ... # 使用回调函数输出学习率 lr_callback = tf.keras.callbacks.LambdaCallback(on_epoch_end=print_lr) ... # 模型训练 model.fit(x_train, y_train, batch_size=batch_size, epochs=epochs, verbose=1, validation_data=(x_test, y_test), callbacks=[lr_callback]) ``` 通过上述两种方法,即可轻松实现 TensorFlow输出学习率的功能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值