Pytorch的可视化

1 使用 wandb进行可视化训练过程

本文章将从wandb的安装、wandb的使用、demo的演示进行讲解。

1.1 如何安装wandb?

wandb的安装比较简单,在终端中执行如下的命令即可:

pip install wandb

在安装完成之后,我们需要,去官网注册一个自己的账号并复制一下自己的API keys,在本地进行登录即可:

wandb login

1.2 wandb的使用

其实wandb的使用是十分简单的,仅需要在自己的代码加入几行代码即可:

import wandb
wandb.init(project = "my-project", entity = "my-name")

这里的project 和 entity是wandb上创建项目的名称和用户名,可以在官网上参考创建项目,官方文档

使用 wandb.init() 在 Python 脚本或笔记本中初始化 W&B Run 对象,并使用超参数名称和值的键值对将字典传递给参数:config

run = wandb.init(
    # Set the project where this run will be logged
    project="my-awesome-project",
    # Track hyperparameters and run metadata
    config={
        "learning_rate": 0.01,
        "epochs": 10,
    },
)

运行是 W&B 的基本组成部分。您将经常使用它们来跟踪指标、创建日志、创建作业等。

1.3 demo的演示

综上所述,训练脚本可能类似于以下代码示例。突出显示的代码显示特定于 W&B 的代码。 请注意,我们添加了模拟机器学习训练的代码。

# train.py
import wandb
import random  # for demo script

wandb.login()

epochs = 10
lr = 0.01

run = wandb.init(
    # Set the project where this run will be logged
    project="my-awesome-project",
    # Track hyperparameters and run metadata
    config={
        "learning_rate": lr,
        "epochs": epochs,
    },
)

offset = random.random() / 5
print(f"lr: {lr}")

# simulating a training run
for epoch in range(2, epochs):
    acc = 1 - 2**-epoch - random.random() / epoch - offset
    loss = 2**-epoch + random.random() / epoch + offset
    print(f"epoch={epoch}, accuracy={acc}, loss={loss}")
    wandb.log({"accuracy": acc, "loss": loss})

# run.log_code()

就是这样!导航到 W&B 应用程序,查看 https://wandb.ai/home 中我们使用 W&B 记录的指标(准确性和损失)在每个训练步骤中是如何改进的。
在这里插入图片描述

  • 9
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
PyTorch中,可以使用不同的方法来可模型和训练过程。引用\[1\]中的代码展示了如何查看卷积层的参数,并将其可。首先,通过导入所需的库和模型,可以初始一个预训练的模型,如vgg11。然后,可以使用字典的形式获取模型中的任意一层,如conv1。通过将该层的参数单独提取出来,并保持其不发生变,可以获取卷积核的参数。最后,可以使用循环将该卷积层的所有卷积核绘制出来。 另外,引用\[2\]和\[3\]中的代码展示了如何在训练过程中添加想要可的内容。首先,可以设置优器和损失函数。然后,在每个epoch和每个batch中,可以计算损失并进行反向传播和优。在每个print_step个batch之后,可以记录训练集损失值、测试集准确率和训练数据的可图像。此外,还可以使用直方图可网络参数的分布情况。 总结起来,PyTorch提供了丰富的可工具和方法,可以帮助我们更好地理解模型和训练过程。 #### 引用[.reference_title] - *1* [pytorch](https://blog.csdn.net/weixin_45456178/article/details/127452897)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [PyTorch【8】PyTorch工具](https://blog.csdn.net/m0_63462829/article/details/127153454)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值