深度学习训练模型时将每个epoch的结果输出到log文件中(涉及知识点loguru包的使用)

pip install loguru

loguru是一个功能强大、简单易用的日志库,它提供了一种简单的方式来记录日志。

一.创建utils.py

下面的类用来打开log文件,在该文件中输入内容,然后关闭文件

class Logger(object):
    def __init__(self, filename):
        self.filename = filename
        f = open(self.filename + ".log", "a")
        f.close()

    def write(self, message):
        f = open(self.filename + ".log", "a")
        f.write(message)
        f.close()

二.创建一个main.py,在训练的时侯使用logger

2.1 创建log文件

import loguru
#导入创建的utils
import utils

# 设置log的名字
log_name = (
    "logs/"
    + model_name
    + "_"
    + dataset_name
    + "_"
    + datetime.now().strftime("%Y-%m-%d %H:%M:%S")
)
# 定义logger
logger = utils.Logger(log_name)

2.2 loguru.logger.info()

logger.info()用于记录信息级别的日志。
这意味着它通常用于记录程序运行期间的一般信息,例如程序启动、任务开始、任务结束等。
在日志输出中,信息级别的日志通常被标记为蓝色(在终端中)或绿色(在IDE中),
以便与警告、错误等其他级别的日志进行区分。

例如设置一些参数,使用logger.info()

# 设置参数
model_name = 'distill_student'
dataset_name = "MNIST"
# lr = 0.0001
lr = 1e-4
epochs = 50
alpha = 0.3 # hard_loss权重
temp = 7 # 蒸馏温度
random_seed=0 # 手动设置随机种子
loguru.logger.info(f"lr={lr},epochs={epochs},alpah={alpha},temp={temp},manual_seed({random_seed})")

效果是在控制台用不同颜色输出信息:

在这里插入图片描述

2.3 logger.write()

使用方法就是将原本print()中的内容,换成logger.writer():
如:

logger.write(f"lr={lr},epochs={epochs},alpah={alpha},temp={temp},manual_seed({random_seed})")

效果是在设置的log文件输出这些信息。

2.4 一些常用的训练输出语法

logger.write('Epoch:{}\t Accuracy:{:.4f} \n'.format(epoch+1,acc))
        logger.write(f'student_hard_loss={student_hard_loss},ditillation_loss={ditillation_loss},loss={loss}' + '\n')
if epoch %10==0 and epoch!=0:
    logger.write(f"当前最优准确率为:{best_acc},所在的epoch为:{best_epoch}" + '\n')
logger.write(f'最优准确率为{best_acc},所在的epoch为:{best_epoch},最优参数已经保存到:weights/{model_name}_best_acc_params.pth' + '\n')
可以使用`tf.keras.callbacks`的`Callback`类来记录训练每个batch_size的训练损失和每轮epoch的验证损失,并使用`matplotlib`库可视化结果。 以下是一个示例代码: ```python import matplotlib.pyplot as plt import numpy as np import tensorflow as tf from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense, LSTM # 准备数据 timesteps = 50 input_dim = 3 X_train = np.random.randn(1000, timesteps, input_dim) y_train = np.random.randn(1000, 1) X_val = np.random.randn(100, timesteps, input_dim) y_val = np.random.randn(100, 1) # 创建模型 model = Sequential() model.add(LSTM(128, input_shape=(timesteps, input_dim))) model.add(Dense(1)) model.compile(loss='mean_squared_error', optimizer='adam') # 定义Callback类 class LossHistory(tf.keras.callbacks.Callback): def __init__(self): self.train_losses = [] self.val_losses = [] def on_epoch_end(self, epoch, logs={}): self.train_losses.append(logs.get('loss')) self.val_losses.append(logs.get('val_loss')) # 创建Callback对象 history = LossHistory() # 训练模型 model.fit(X_train, y_train, epochs=10, batch_size=32, validation_data=(X_val, y_val), callbacks=[history]) # 绘制训练损失和验证损失曲线 plt.plot(history.train_losses, label='Training Loss') plt.plot(history.val_losses, label='Validation Loss') plt.legend() plt.show() ``` 在这个例子,我们创建了一个Callback类`LossHistory`,在每个epoch结束记录训练损失和验证损失,并将其保存在`self.train_losses`和`self.val_losses`列表。在训练完成后,我们使用`matplotlib`库绘制损失曲线。 希望这个例子可以帮助您记录并可视化训练和验证损失。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

computer_vision_chen

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值