关于Pytroch中tensorboardx的使用

参考链接

PyTorch官方文档1
PyTorch官方文档2

一、准备工作

在本地下载tensorboardx,不要用conda安装(反正我没有成功)

pip install tensorboard
pip install tensorboardX

二、使用tensorboardx

1.利用SummaryWriter建立一个writer容器,用来存储产生的数据。
from torch.utils.tensorboard import SummaryWriter 
writer = SummaryWriter('./log')  
2.通过writer存储产生的数据,tensorboardx使用add_xx()函数来存储各式各样的参数,具体可以参考以下链接	

PyTorch官方文档1
PyTorch官方文档2

3.运行完代码后在'./log'这个路径下便产生了文件,打开cmd,根据路径输入以下代码,运行完上面这段代码后便会得到一个链接,
复制链接到浏览器上打开即可。	

==logdir=后面的路径不要加 ’ '(单引号)一定不要加!!!!!同时=左右不要有空格否则会显示没有数据

tensorboard --logdir=./log --port=8888 # logdir=后面的路径不要加'',port是端口号,可自行选择

三、Demo

1.绘制损失函数

import torch
from torch.utils.tensorboard import SummaryWriter
writer = SummaryWriter('./test')

x = torch.arange(-5, 5, 0.1).view(-1, 1)
y = -5 * x + 0.1 * torch.randn(x.size())

model = torch.nn.Linear(1, 1)
criterion = torch.nn.MSELoss()
optimizer = torch.optim.SGD(model.parameters(), lr = 0.1)

def train_model(iter):
    for epoch in range(iter):
        y1 = model(x)
        loss = criterion(y1, y)
        writer.add_scalar("Loss/train", loss, epoch)
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

train_model(10)
writer.flush()
writer.close()

调用flush()方法以确保所有挂起的事件都已写入磁盘。
在这里插入图片描述
把得到的网址复制粘贴到网页上,得到的运行结果如下

在这里插入图片描述

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值