相关链接:
https://www.jianshu.com/p/46eb3004beca
1.环境
python 3.6+
Pytorch
tensorboardX: pip install tensorboardX、pip install tensorflow
2.Scalar
(1)相关代码
import torch
import torch.nn as nn
import torch.nn.functional as F
from tensorboardX import SummaryWriter
import numpy as np
input_size=1
output_size=1
num_epoches=60
learning_rate=0.01
writer=SummaryWriter(comment="Linear")
x_train=np.array([[3.3],[4.4],[5.5],[6.7],[6.9],[4.1],[9.7],[6.18],[7.59],[2.16],[7.14],[10.7],[5.3],[7.9],[3.1]],dtype=np.float32)
y_train=np.array([[3.3],[4.4],[5.5],[6.7],[6.9],[4.1],[9.7],[6.18],[7.59],[2.16],[7.14],[10.7],[5.3],[7.9],[3.1]],dtype=np.float32)
model=nn.Linear(input_size,output_size)
criterion=nn.MSELoss()
optimizer=torch.optim.SGD(model.parameters(),lr=learning_rate)
inputs=torch.from_numpy(x_train)
for epoch in range(num_epoches):
inputs=torch.from_numpy(x_train)
targets = torch.from_numpy(y_train)
output=model(inputs)
loss=criterion(output,targets)
optimizer.zero_grad()
loss.backward()
optimizer.step()
#保存loss的数据与epoch数值
writer.add_scalar("Train",loss,epoch)
writer.close()
(2)对上述代码进行解释,首先导入:from tensorboardXimport SummaryWriter,然后定义一个SummaryWriter() 实例。在SummaryWriter()上鼠标ctrl+b我们可以看到SummaryWriter()的参数为:def init(self, log_dir=None, comment=’’, **kwargs): 其中log_dir为生成的文件所放的目录,comment为文件名称。默认目录为生成runs文件夹目录。
(3)我们运行上述代码,生成结果为:
- writer.add_scalar(“Train”,loss,epoch)
这句代码的作用就是,将我们所需要的数据保存在文件里面供可视化使用。 这里是Scalar类型,所以使用writer.add_scalar(),其他的队形使用对应的函数。第一个参数可以简单理解为保存图的名称,第二个参数是可以理解为Y轴数据,第三个参数可以理解为X轴数据。 当Y轴数据不止一个时,可以使用writer.add_scalars().
3.Graph
from tensorboardX import SummaryWriter
input_size=1
output_size=1
num_epoches=60
learning_rate=0.01
writer=SummaryWriter(comment="Linear")
x_train=np.array([[3.3],[4.4],[5.5],[6.7],[6.9],[4.1],[9.7],[6.18],[7.59],[2.16],[7.14],[10.7],[5.3],[7.9],[3.1]],dtype=np.float32)
y_train=np.array([[3.3],[4.4],[5.5],[6.7],[6.9],[4.1],[9.7],[6.18],[7.59],[2.16],[7.14],[10.7],[5.3],[7.9],[3.1]],dtype=np.float32)
model=nn.Linear(input_size,output_size)
criterion=nn.MSELoss()
optimizer=torch.optim.SGD(model.parameters(),lr=learning_rate)
inputs=torch.from_numpy(x_train)
for epoch in range(num_epoches):
inputs=torch.from_numpy(x_train)
targets = torch.from_numpy(y_train)
output=model(inputs)
loss=criterion(output,targets)
optimizer.zero_grad()
loss.backward()
optimizer.step()
#保存loss的数据与epoch数值
writer.add_scalar("Train",loss,epoch)
if (epoch+1)%5==0:
print('Epoch {}/{},loss:{:,.4f}'.format(epoch+1,num_epoches,loss))
#将model保存为graph
writer.add_graph(model,(inputs))
writer.close()
因为这是一个神经网络架构,所以使用 w.add_graph(model, (dummy_input,)),其中第一个参数为需要保存的模型,第二个参数为输入值,元祖类型。
4.相关命令
在pycharm中的Terminal中运行以下命令:
(1)通过在检查模式下运行tensorboard来检查事件文件是否实际具有数据,以检查事件文件的内容。
tensorboard --inspect --logdir DIRECTORY_PATH
(2)启动TensorBoard
tensorboard --logdir=path/to/log-directory
示例:
在浏览器中打开链接后可视化界面显示如下:
5.网络综合训练
结果展示: