【Tensorboard使用】动态显示loss曲线

程序

下面的例子是两层全连接网络,实现手写数字识别的案例。

from tensorflow.examples.tutorials.mnist import input_data
import tensorflow as tf
import os

os.environ["TF_CPP_MIN_LOG_LEVEL"] = "2"  # 忽略tensorflow警告信息

mnist = input_data.read_data_sets('MNIST_data',one_hot=True)

batch_size = 100
n_batch = mnist.train.num_examples // batch_size

lr = 0.01

#初始化
#命名空间
with tf.name_scope("input"):
    x = tf.placeholder(tf.float32,[None,784],name='x')
    y_ = tf.placeholder(tf.float32,[None,10],name='y_')

#创建网络
with tf.name_scope('Layer1'):
    with tf.name_scope('weight1'):
        w1 = tf.Variable(tf.truncated_normal([784,500]),name='w1')
    with tf.name_scope("biases"):
        b1 = tf.Variable(tf.zeros([500]),name='b1')
    with tf.name_scope("y1"):
        y1 = tf.nn.tanh(tf.matmul(x,w1)+b1,name='y1')
with tf.name_scope("Layer2"):
    with tf.name_scope('weight2'):
        w2 = tf.Variable(tf.truncated_normal([500,10]),name='w2')
    with tf.name_scope("biases2"):
        b2 = tf.Variable(tf.zeros([10]),name='b2')
    with tf.name_scope("y"):
        y = tf.nn.softmax(tf.matmul(y1,w2)+b2,name='y') #输出信号总和

with tf.name_scope("loss"):
    loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=y_,logits=y))
    tf.summary.scalar('loss',loss)

#训练
with tf.name_scope("train"):
    train_stap = tf.train.GradientDescentOptimizer(lr).minimize(loss)

#准确率
with tf.name_scope("accuracy"):
    correct_prediction = tf.equal(tf.argmax(y_,1),tf.argmax(y,1))
    accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
    tf.summary.scalar('accuracy',accuracy)

merged = tf.summary.merge_all()

with tf.Session() as sess:
    init_op = tf.global_variables_initializer()
    sess.run(init_op)
    write = tf.summary.FileWriter('E://TensorBoard//test',sess.graph)

    for epoch in range(500):
        for batch in range(n_batch):
            batch_xs,batch_ys = mnist.train.next_batch(batch_size)
            _,summery,loss_val=sess.run([train_stap,merged,loss],feed_dict={x:batch_xs, y_:batch_ys})

        write.add_summary(summery,epoch)
        acc = sess.run(accuracy,feed_dict={x:mnist.test.images,y_:mnist.test.labels})
        print("Atfer %d steps, Accuracy is %g, loss is %g" %(epoch,acc,loss_val))


 

网络结构

 

accyracy

 

loss

 

 

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
### 回答1: 要使用tensorboardx画loss曲线,需要先安装tensorboardx库,并在代码中添加相应的代码。具体步骤如下: 1. 安装tensorboardx库 可以使用pip命令进行安装: ``` pip install tensorboardx ``` 2. 在代码中添加相应的代码 在训练模型的代码中,需要添加以下代码: ```python from tensorboardX import SummaryWriter # 创建一个SummaryWriter对象,指定保存路径 writer = SummaryWriter('logs') # 在训练过程中,每个epoch结束后,记录loss值 for epoch in range(num_epochs): # 训练代码 loss = ... # 记录loss值 writer.add_scalar('train_loss', loss, epoch) # 训练结束后,关闭SummaryWriter对象 writer.close() ``` 其中,`SummaryWriter`对象用于保存训练过程中的数据,`add_scalar`方法用于记录loss值,第一个参数为记录的名称,第二个参数为记录的值,第三个参数为记录的步数(可以是epoch数或者batch数等),`close`方法用于关闭SummaryWriter对象。 3. 启动tensorboard 在命令行中输入以下命令启动tensorboard: ``` tensorboard --logdir=logs ``` 其中,`--logdir`参数指定保存数据的路径,即上面代码中指定的路径。 4. 查看loss曲线 在浏览器中输入以下地址,即可查看loss曲线: ``` http://localhost:6006 ``` 其中,`localhost`为本机IP地址,`6006`为tensorboard的默认端口号。 ### 回答2: Tensorboardx是 PyTorch 的可视化工具,可以方便地绘制训练过程中的 loss、accuracy 等曲线。 下面是用 tensorboardx 画 loss 曲线的步骤: 1. 安装 tensorboardx ```python pip install tensorboardx ``` 2. 在训练过程中通过 TensorboardWriter 实例记录 loss 和其他指标 ```python from tensorboardX import SummaryWriter # 创建 SummaryWriter 实例 writer = SummaryWriter(log_dir = 'logs') # 记录 loss writer.add_scalar('Train/loss', train_loss, global_step) writer.add_scalar('Test/loss', test_loss, global_step) # 记录其他指标比如 accuracy writer.add_scalar('Train/accuracy', train_acc, global_step) writer.add_scalar('Test/accuracy', test_acc, global_step) ``` 其中,global_step 表示当前的迭代次数(或 epoch 数)。 3. 启动 TensorBoard 服务 ```python tensorboard --logdir=logs ``` 其中,logs 是记录日志文件的路径。 4. 在浏览器中打开 TensorBoard 网页,并选择要查看的数据 在浏览器中访问 http://localhost:6006,就能看到 TensorBoard 的网页界面。在左边的面板中选择 Scalars 选项卡,就能看到所有记录的指标。找到要绘制的 loss 或 accuracy,点击相应的图标就能看到对应的曲线了。 上述步骤能实现 tensorboardx 画 loss 曲线。当然,要想更好地利用 tensorboardx 进行可视化,还需要深入了解 tensorboardx 的其他功能,比如可视化模型结构、Embedding、Graph、Histogram 等。 ### 回答3: TensorboardX是一个Python库,用于在PyTorch中实现Tensorboard的功能,Tensorboard是TensorFlow中的一个可视化工具。在训练神经网络时,很重要的一步是监控Loss(损失)的变化。我们可以使用TensorboardX来绘制Loss曲线图,这可以帮助我们了解我们模型的训练情况。 在使用TensorboardX之前,我们需要先安装它。可以通过以下命令进行安装: ``` !pip install tensorboardX ``` 安装好之后,我们可以通过以下步骤来使用TensorboardX来画出Loss曲线图: 1. 导入必要的库和TensorboardX: ```python from tensorboardX import SummaryWriter import torch import torch.nn as nn ``` 2. 创建一个SummaryWriter对象,指定路径来储存TensorboardX生成功能。 ```python writer = SummaryWriter('logs') ``` 3. 训练模型,并在训练过程中记录Loss值: ```python criterion = nn.CrossEntropyLoss() optimizer = torch.optim.Adam(model.parameters(), lr=0.001) for epoch in range(num_epochs): running_loss = 0.0 for i, data in enumerate(train_loader, 0): inputs, labels = data optimizer.zero_grad() outputs = model(inputs) loss = criterion(outputs, labels) loss.backward() optimizer.step() running_loss += loss.item() if i % 100 == 99: # 记录每100个mini-batch的loss writer.add_scalar('training loss', running_loss / 100, epoch * len(train_loader) + i) running_loss = 0.0 ``` 在上述代码中,我们使用add_scalar函数来记录Loss值,这个函数包括三个参数:刚开始我们定义的‘training loss’、当前的Loss值、以及被记录的步骤数。 4. 运行TensorboardX来可视化Loss曲线图: ```python tensorboard --logdir=logs ``` 我们在运行以上命令后,打开浏览器并输入‘http://localhost:6006/’,即可在Tensorboard的页面上看到我们可视化的Loss曲线图。 总结而言,使用TensorboardX创建可视化的Loss曲线图非常简单,只需要使用SummaryWriter对象和‘add_scalar’函数即可。使用TensorboardX可以帮助我们更好地了解模型的训练情况,从而对模型做出改善。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值