TensorFlow教程 4 Tensorboard 可视化好帮手

本文详细介绍了如何使用TensorFlow自带的TensorBoard进行可视化,包括TensorBoard的简介、绘制图层与参数、保存和执行绘图的步骤,以及如何通过TensorBoard可视化训练过程中的权重、损失函数和事件等变化。
摘要由CSDN通过智能技术生成

4 Tensorboard 可视化好帮手

4.1 Tensorboard简介

学会用 Tensorflow 自带的 tensorboard 去可视化我们所建造出来的神经网络是一个很好的学习理解方式.

用最直观的流程图告诉你你的神经网络是长怎样,有助于你发现编程中间的问题和疑问.

通过tensorboard的工具大致可以看到,上节课要显示的神经网络差不多是这样子的:
image

同时我们也可以展开看每个layer中的一些具体的结构:
image

4.2 绘制图层与其中的参数

主要用到两个语法:
1. 定义图层:with tf.name_scope() ( 里面写名字,下面用缩进)
2. 定义参数:增加参数变量的属性name

4.2.1 对隐藏层

例如对添加的隐藏层进行画图,最终,layer形式如下:

def add_layer(inputs, in_size, out_size, activation_function=None):
    # add one more layer and return the output of this layer
    with tf.name_scope('layer'):
        with tf.name_scope('weights'):
            Weights = tf.Variable(tf.random_normal([in_size, out_size]),name='W')
        with tf.name_scope('biases'):
            biases = tf.Variable(tf.zeros([1,out_size]) + 0.1,name='b')
        with tf.name_scope('Wx_plus_b'):
            Wx_plus_b = tf.add(tf.matmul(inputs, Weights),biases)
        if activation_function is None:
            outputs = Wx_plus_b
        else:
            outputs = activation_function(Wx_plus_b, )
        return outputs

效果如下:(有没有看见刚才定义layer里面的“内部构件”呢?)
image

4.2.2 loss函数

再例如对loss部分:

# the error between prediciton and real data
with tf.name_scope('loss'):
    loss = tf.reduce_mean(
    tf.reduce_sum(
    tf.square(ys - prediction),
    eduction_indices=[1]
    ))

这句话就是“绘制” loss了, 如下:
image

4.2.3 train_step部分

with tf.name_scope('train'):
    train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)

形式都相同。

4.3 保存并执行绘图

  1. 保存绘画:tf.summary.FileWriter()运行程序,生成绘画文件

  2. 运行绘画1:在CMD中tensorboard –logdir logs设定文件目录

  3. 打开Google Chrome:

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值