0基础学习PyTorch——监控机器学习的可视化工具

TensorBoard 是一个用于可视化和监控机器学习实验的工具。它是 TensorFlow 的一个组件,但也可以与 PyTorch 等其他深度学习框架一起使用。以下是 TensorBoard 的主要功能和作用:

主要功能

  • 可视化训练过程:
    • 损失和精度曲线:实时显示训练和验证的损失、精度等指标的变化情况。
    • 学习率调度:可视化学习率的变化情况。
  • 模型图:
    • 网络结构:可视化神经网络的结构,包括各层的连接关系和参数数量。
  • 参数分布:
    • 权重和偏置:可视化模型参数(如权重和偏置)的分布和变化情况。
  • 图像和音频:
    • 输入数据和特征图:可视化输入图像、生成的特征图和其他中间结果。
    • 音频数据:可视化音频数据的波形和频谱图。
  • 嵌入向量:
    • 高维数据降维:使用 t-SNE 或 PCA 等方法可视化高维嵌入向量。
  • 超参数调优:
    • 超参数搜索:可视化不同超参数组合的效果,帮助选择最佳超参数。

环境准备

source env.sh install tensorboard

在这里插入图片描述

可视化

torch-tb-profiler 是一个用于 PyTorch 的性能分析工具,它集成了 TensorBoard,帮助开发者可视化和分析 PyTorch 模型的性能。

source env.sh install torch-tb-profiler

我们的开发环境是vscode。我们需要其一个扩展来可视化展现结果。
在这里插入图片描述

侵入式编码

我们基于《0基础学习PyTorch——时尚分类(Fashion MNIST)训练和推理》的例子,在训练模块增加相关功能来监控训练的变化过程。

  • 引入依赖
from torch.utils.tensorboard import SummaryWriter
  • 创建 TensorBoard 记录器
log_dir = f'logs/{datetime.now().strftime("%Y%m%d-%H%M%S")}'
writer = SummaryWriter(log_dir)
  • 统计训练过程中的数据
        _, predicted = torch.max(outputs, 1)
        total += labels.size(0)
        correct += (predicted == labels).sum().item()

outputs是一个包含模型输出的张量,通常是形状为 [batch_size, num_classes] 的二维张量,其中 batch_size 是批次大小,num_classes 是分类的类别数。

torch.max(outputs, 1)返回一个包含两个张量的元组,第一个张量是每行的最大值,第二个张量是每行最大值的索引。

举个例子,假设outputs是如下张量

outputs = torch.tensor([[0.1, 0.2, 0.7],
[0.3, 0.6, 0.1],
[0.8, 0.1, 0.1]])

执行 torch.max(outputs, 1) 将返回:

(values, indices) = torch.max(outputs, 1)
# values: tensor([0.7, 0.6, 0.8])
# indices: tensor([2, 1, 0])

这样predicted就是这批训练对象通过模型计算出的最可能标签下标值的集合。

labels.size(0) 返回 labels 张量的第一个维度的大小,即批次大小 batch_size。total用于统计当前训练的样本总数。

correct用于统计预测值和目标值一致的个数。

后面我们就可以通过total和correct来得出精度。

  • 记录
        # 每100个批次记录一次
        if i % 100 == 99:  
            writer.add_scalar('training loss', running_loss / 100, epoch * len(trainloader) + i)
            writer.add_scalar('accuracy', correct / total, epoch * len(trainloader) + i)

我们并不需要记录每次训练过程中的值,所以采用一定的步长来统计——epoch * len(trainloader) + i。

running_loss / 100是损失值,correct / total是精度值。

结果展现和分析

在vscode中ctrl+P唤出交换框,输入

> Launch TensorBoard

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
我们可以发现精度(accuracy)大概在训练了16K次样本后趋于稳定,之后的训练并没有带来改善。所以如果我们希望精度达到90%就可以接受,只要训练16K次即可。

可以见得TensorBoard可以辅助我们减少无谓的训练。

延伸

训练损失(Training Loss)和准确率(Accuracy)是评估机器学习模型性能的两个重要指标,但它们衡量的方面不同。以下是它们的区别和各自的定义:

训练损失(Training Loss)

  • 定义:训练损失是模型在训练数据上的预测结果与真实标签之间的差异。它是通过损失函数(如交叉熵损失、均方误差等)计算得到的。
  • 作用:训练损失用于衡量模型在训练过程中的优化程度。较低的训练损失通常表示模型在训练数据上拟合得较好。
  • 计算方式:在每个训练步骤中,模型的预测结果与真实标签之间的差异通过损失函数计算得到一个标量值,这个值就是训练损失。
  • 范围:训练损失的范围取决于所使用的损失函数。对于交叉熵损失,损失值通常为非负数。

准确率(Accuracy)

  • 定义:准确率是模型在数据集上预测正确的样本数量占总样本数量的比例。它是一个衡量模型分类性能的指标。
  • 作用:准确率用于衡量模型在分类任务中的性能。较高的准确率表示模型在数据集上预测正确的样本比例较高。
  • 计算方式:在每个训练或验证步骤中,模型的预测结果与真实标签进行比较,计算预测正确的样本数量,然后除以总样本数量,得到准确率。
  • 范围:准确率的范围是0到1,通常表示为百分比(0%到100%)。

参考代码

https://github.com/f304646673/deeplearning/tree/main/FashionMNISTTensorBoard

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

breaksoftware

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值