Pytorch使用tensorboardX可视化。超详细

tensorboard --logdir runs 改为 tensorboard --logdir=D:\model\tensorboard\runs

重点 

在网上看了很多方法后发现将原本链接中的计算机名改为localhost,即http://localhost:6006/后能成功解决该问题,显示结果

tensorboard --logdir=D:\model\tensorboard\runs

等号后面为模型保存的路径根目录

直接运行这个命令  然后在浏览器中直接打开网址  如果是本机就是本机地址 如果不是则输入目标主机地址

1 引言

      我们都知道tensorflow框架可以使用tensorboard这一高级的可视化的工具,为了使用tensorboard这一套完美的可视化工具,未免可以将其应用到Pytorch中,用于Pytorch的可视化。这里特别感谢Github上的解决方案: https://github.com/lanpa/tensorboardX

      本文主要是针对该解决方案提供一些介绍。

     TensorboardX支持scalar, image, figure, histogram, audio, text, graph, onnx_graph, embedding, pr_curve and videosummaries等不同的可视化展示方式,具体介绍移步至项目Github 观看详情。


2 环境安装

本教程代码环境依赖:

python 3.6+

Pytorch 0.4.0+

tensorboardX:   pip install tensorboardX、pip install tensorflow


3 代码教程

       TensorboardX可以提供中很多的可视化方式,本文主要介绍scalar 和 graph,其他类型相似。

3.1 scalar教程

01_scalar_base.py 代码

        对上述代码进行解释,首先导入:from tensorboardXimport SummaryWriter,然后定义一个SummaryWriter() 实例。在SummaryWriter()上鼠标ctrl+b我们可以看到SummaryWriter()的参数为:def __init__(self, log_dir=None, comment='', **kwargs): 其中log_dir为生成的文件所放的目录,comment为文件名称。默认目录为生成runs文件夹目录。我们运行上述代码:生成结果为:

      当我们为SummaryWriter(comment='base_scalar')。生成结果为:

      当我们为SummaryWriter(log_dir='scalar') 添加log_dir参数,可以看到第二条数据的文件名称包括了base_scalar值。生成结果目录为:

       接着解释writer.add_scalar('scalar/test', np.random.rand(), epoch),这句代码的作用就是,将我们所需要的数据保存在文件里面供可视化使用。 这里是Scalar类型,所以使用writer.add_scalar(),其他的队形使用对应的函数。第一个参数可以简单理解为保存图的名称,第二个参数是可以理解为Y轴数据,第三个参数可以理解为X轴数据。当Y轴数据不止一个时,可以使用writer.add_scalars().运行代码之后生成文件之后,我们在runs同级目录下使用命令行:tensorboard --logdir runs. 当SummaryWriter(log_dir='scalar')的log_dir的参数值 存在时,将tensorboard --logdir runs 改为 tensorboard --logdir 参数值

       最后调用writer.close()。

      点击链接即可看到我们的最终需要的可视化结果。

可视化效果

       可以分别点击对应的图片查看详情。可以看到生成的Scalar名称为'scalar/test'与'scalar/test'一致。注:可以使用左下角的文件选择你想显示的某个或者全部图片。

3.2 Graph教程

02_graph_model.py 代码

       首先我们定义一个神经网络取名为Net1。然后将其添加到tensorboard可是可视化中。

with SummaryWriter(comment='Net1')as w:

         w.add_graph(model, (dummy_input,))

      我们重点关注最后两句话,其中使用了python的上下文管理,with 语句,可以避免因w.close未写造成的问题。推荐使用此方式。

       因为这是一个神经网络架构,所以使用 w.add_graph(model, (dummy_input,)),其中第一个参数为需要保存的模型,第二个参数为输入值,元祖类型。打开tensorvboard控制台,可得到如下结果。

        点击Net1部分可以将其网络展开,查看网络内部构造。

模型可视化结果

        其他部分可以继续一次展开查看详情。

3.3 网络训练综合教程

        解释完上述两部分知识之后,我们可以综合运用上述两部分内容,实现线性拟合的训练过程中的loss可视化和模型的保存。

03_linear_regression.py 代码 

        我们将运行过程中loss和model分别保存,最后打开tensorboard控制台,可以得到模型结果和loss的结果为下图.

模型可视化结果

        注:不同的graph的可视化可以使用上图Run旁边的下拉框选择。

loss可视化结果

3.4 Tensorboard综合Demo

        本Demo代码为TensorboardX提供的官方Demo代码。

demo.py

最终运行的所有可视化结果为:

最终可视化结果

4 结束语

        本文是我写的第一篇比较完整的文章,大家如果觉得帮助到了你,帮忙点个赞呗。

        本文所有的代码链接为:https://github.com/miaoshuyu/pytorch-tensorboardx-visualization(对你有用的话,麻烦点个小星星呗)

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,我可以帮你解答这个问题! 首先,为了使用tensorboardx可视化Pytorch模型,你需要先安装tensorboardX库。你可以通过以下命令来安装: ``` pip install tensorboardX ``` 安装完成后,你需要在你的Pytorch代码中导入tensorboardX: ```python from tensorboardX import SummaryWriter ``` 接下来,在你的代码中创建一个`SummaryWriter`对象,它将负责记录你的模型的数据和可视化: ```python writer = SummaryWriter() ``` 现在你可以在代码中使用`writer`对象来记录任何你想要记录的数据。例如,你可以记录损失函数的值: ```python writer.add_scalar('Loss', loss_value, global_step) ``` 其中`loss_value`是损失函数的值,`global_step`是你的训练步数。 你也可以记录模型的权重和梯度: ```python writer.add_histogram('conv1/weights', conv1.weight, global_step) writer.add_histogram('conv1/grads', conv1.weight.grad, global_step) ``` 这将记录名为`conv1/weights`和`conv1/grads`的直方图,它们分别显示了`conv1`层的权重和梯度。 最后,在你的代码结束时,不要忘记关闭`SummaryWriter`对象: ```python writer.close() ``` 现在你可以在终端中输入以下命令来启动tensorboard: ``` tensorboard --logdir=/path/to/logs ``` 其中`/path/to/logs`是你保存日志文件的路径。然后在你的浏览器中访问`http://localhost:6006`,你将能够看到Pytorch模型的可视化结果。 希望这能够帮助你!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值