Pytorch使用tensorboardX可视化

相关链接:
https://www.jianshu.com/p/46eb3004beca

1.环境

python 3.6+
Pytorch
tensorboardX: pip install tensorboardX、pip install tensorflow

2.Scalar

(1)相关代码

import torch
import torch.nn as nn
import  torch.nn.functional as F
from tensorboardX import SummaryWriter
import numpy as np

input_size=1
output_size=1
num_epoches=60
learning_rate=0.01

writer=SummaryWriter(comment="Linear")

x_train=np.array([[3.3],[4.4],[5.5],[6.7],[6.9],[4.1],[9.7],[6.18],[7.59],[2.16],[7.14],[10.7],[5.3],[7.9],[3.1]],dtype=np.float32)
y_train=np.array([[3.3],[4.4],[5.5],[6.7],[6.9],[4.1],[9.7],[6.18],[7.59],[2.16],[7.14],[10.7],[5.3],[7.9],[3.1]],dtype=np.float32)

model=nn.Linear(input_size,output_size)
criterion=nn.MSELoss()
optimizer=torch.optim.SGD(model.parameters(),lr=learning_rate)
inputs=torch.from_numpy(x_train)
for epoch in range(num_epoches):
    inputs=torch.from_numpy(x_train)
    targets = torch.from_numpy(y_train)

    output=model(inputs)
    loss=criterion(output,targets)
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()

    #保存loss的数据与epoch数值
    writer.add_scalar("Train",loss,epoch)
writer.close()

(2)对上述代码进行解释,首先导入:from tensorboardXimport SummaryWriter,然后定义一个SummaryWriter() 实例。在SummaryWriter()上鼠标ctrl+b我们可以看到SummaryWriter()的参数为:def init(self, log_dir=None, comment=’’, **kwargs): 其中log_dir为生成的文件所放的目录,comment为文件名称。默认目录为生成runs文件夹目录。
(3)我们运行上述代码,生成结果为:
在这里插入图片描述

  • writer.add_scalar(“Train”,loss,epoch)
    这句代码的作用就是,将我们所需要的数据保存在文件里面供可视化使用。 这里是Scalar类型,所以使用writer.add_scalar(),其他的队形使用对应的函数。第一个参数可以简单理解为保存图的名称,第二个参数是可以理解为Y轴数据,第三个参数可以理解为X轴数据。 当Y轴数据不止一个时,可以使用writer.add_scalars().

3.Graph

from tensorboardX import SummaryWriter
input_size=1
output_size=1
num_epoches=60
learning_rate=0.01
writer=SummaryWriter(comment="Linear")
x_train=np.array([[3.3],[4.4],[5.5],[6.7],[6.9],[4.1],[9.7],[6.18],[7.59],[2.16],[7.14],[10.7],[5.3],[7.9],[3.1]],dtype=np.float32)
y_train=np.array([[3.3],[4.4],[5.5],[6.7],[6.9],[4.1],[9.7],[6.18],[7.59],[2.16],[7.14],[10.7],[5.3],[7.9],[3.1]],dtype=np.float32)

model=nn.Linear(input_size,output_size)
criterion=nn.MSELoss()
optimizer=torch.optim.SGD(model.parameters(),lr=learning_rate)
inputs=torch.from_numpy(x_train)
for epoch in range(num_epoches):
    inputs=torch.from_numpy(x_train)
    targets = torch.from_numpy(y_train)

    output=model(inputs)
    loss=criterion(output,targets)

    optimizer.zero_grad()
    loss.backward()
    optimizer.step()

    #保存loss的数据与epoch数值
    writer.add_scalar("Train",loss,epoch)
    if (epoch+1)%5==0:
        print('Epoch {}/{},loss:{:,.4f}'.format(epoch+1,num_epoches,loss))

#将model保存为graph
writer.add_graph(model,(inputs))
writer.close()

因为这是一个神经网络架构,所以使用 w.add_graph(model, (dummy_input,)),其中第一个参数为需要保存的模型,第二个参数为输入值,元祖类型。

4.相关命令

在pycharm中的Terminal中运行以下命令:
(1)通过在检查模式下运行tensorboard来检查事件文件是否实际具有数据,以检查事件文件的内容。
tensorboard --inspect --logdir DIRECTORY_PATH
(2)启动TensorBoard
tensorboard --logdir=path/to/log-directory
示例:
在这里插入图片描述
在浏览器中打开链接后可视化界面显示如下:
在这里插入图片描述

5.网络综合训练

在这里插入图片描述
结果展示:
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值