深度学习辅助工具tensorboard可视化实现训练过程的动态监视

1.首先,找到linux服务器中tensorflow-gpu的安装位置

pip show tensorflow-gpu
 
 
  • 1
Name: tensorflow-gpu
Version: 1.0.1
Summary: TensorFlow helps the tensors flow
Home-page: http://tensorflow.org/
Author: Google Inc.
Author-email: opensource@google.com
License: Apache 2.0
Location: /home/bids/.local/lib/python2.7/site-packages
Requires: mock, numpy, protobuf, wheel, six
 
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

或者

python
import tensorflow
tensorflow.__path__
dir(tensorflow)

在找到tensorflow-gpu地址后,在改地址目录下寻找tensorboard/tensorboard.py路径。在后面对rensorboard的可视化中会用到该路径

2.在网络训练的代码中(train.py):

log_filepath = '/tmp/keras_log' model.compile(loss='categorical_crossentropy', optimizer=SGD(lr=0.001), metrics=['accuracy']) tb_cb = keras.callbacks.TensorBoard(log_dir=log_filepath, write_images=1, histogram_freq=1) # 设置log的存储位置,将网络权值以图片格式保持在tensorboard中显示,设置每一个周期计算一次网络的 #权值,每层输出值的分布直方图 cbks = [tb_cb] history = model.fit(X_train, Y_train, batch_size=batch_size, nb_epoch=nb_epoch, verbose=1, callbacks=cbks, validation_data=(X_test, Y_test))

3.重新开启一个新的终端,输入命令,使得train_history可视化:

python /home/bids/.local/lib/python2.7/site-packages/tensorboard/tensorboard.py --logdir='/tmp/keras_log'

Starting TensorBoard 54 at http://bids:6006(Press CTRL+C to quit)

右键上面的网址打开链接即可。


转载参考来自blog:http://blog.csdn.net/jiandanjinxin/article/details/77155565

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是使用tensorboardX可视化训练过程的梯度损失和特征图的代码示例: ```python import tensorboardX import torch # 定义模型和优化器 model = MyModel() optimizer = torch.optim.SGD(model.parameters(), lr=0.01) # 定义tensorboard可视化器 writer = tensorboardX.SummaryWriter('logs') # 训练过程 for epoch in range(10): for step, (inputs, targets) in enumerate(train_loader): # 前向传播 outputs = model(inputs) loss = loss_fn(outputs, targets) # 反向传播 optimizer.zero_grad() loss.backward() optimizer.step() # 记录梯度和损失 writer.add_scalar('loss', loss.item(), epoch * len(train_loader) + step) for name, param in model.named_parameters(): if param.grad is not None: writer.add_histogram(name + '_grad', param.grad, epoch * len(train_loader) + step) # 记录特征图 if step % 10 == 0: for name, layer in model.named_children(): if isinstance(layer, torch.nn.Conv2d): features = layer(inputs) writer.add_images(name + '_features', features, epoch * len(train_loader) + step) writer.close() ``` 在上述代码中,我们首先定义了模型和优化器,然后创建了tensorboard可视化器。在训练过程中,我们记录了每一步的损失和参数梯度,并使用`add_scalar`和`add_histogram`方法将它们写入tensorboard。另外,我们还记录了每10个步骤的特征图,并使用`add_images`方法将它们写入tensorboard。最后,我们关闭了可视化器。 注意,上述代码仅用于示例目的,实际应用中需要根据具体情况进行调整。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值