Tensorflow 自带的 tensorboard 去可视化我们所建造出来的神经网络是一个很好的学习理解方式。用最直观的流程图告诉你你的神经网络是长怎样,有助于你发现编程中间的问题和疑问。
这次只是简单展示tensorboard的简单使用。所以demo还是使用上上篇博客的demo,只是对一里面的一下层和必要参数进行了包装。这次展示的图是这样的。
图上有三层 我们的代码里面也是只有简单的三层。从下往上看依次是输入层,隐藏层次,输出层。
打开输入层可以看到:
在这层里面有两个变量 x_inpu 和 y_input 点击右边会有变量的详细信息。
这一层在代码里是怎么实现的,请看下面的关键代码:
#输入
with tf.name_scope("inputs_layer"):
x_input = tf.placeholder(tf.float32,[None,1],name = "x_input")
y_input = tf.placeholder(tf.float32,[None,1],name = "y_input")
这段代码快就是实现了一个层,这个层的名字叫inputs_layer,层里面的变量也可以进行命名。
隐藏层内部图:
在我们之前的代码里,我们是自己添加了层函数,layer里面的 内部构件 都在这个添加层函数里面。实现代码看下面:
with tf.name_scope("layer"):
#开始定义weights和biases
with tf.name_scope('Weights'):
Weights = tf.Variable(tf.random_normal([input_size,output_seiz]),name = "W")#in_size行, out_size列的随机变量矩阵
#机器学习中,biases的推荐值不为0,所以我们这里是在0向量的基础上又加了0.1
with tf.name_scope('Biases'):
biases = tf.Variable(tf.zeros([1,output_seiz])+0.1,name = "b")
#定义神经网络未激活的值。tf.matmul()是矩阵的乘法。
with tf.name_scope('Wx_plus_b'):
Wx_plus_b = tf.matmul(inputs,Weights)+biases
激励函数就没有再进行添加 tensorflow对激励函数进行了默认添加。
loss的内部构建如下图:
实现代码:
with tf.name_scope("loss"):
loss =tf.reduce_mean(tf.reduce_sum(tf.square(y_input - layer_output),reduction_indices=[1]),name = "loss")#二者差的平方求和再取平均
训练的图我们也可以看看
实现代码 :
with tf.name_scope("train_step"):
train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)
这些要显示的图我们标记完了后,开始关键了,我们要把这写保存到本地文件中
with tf.Session() as sess:
#把整个框架加载到文件中去,在通过浏览器观看这个文件sess.graph 收集信息,并放在该文件中
writer = tf.summary.FileWriter("logs/",sess.graph)
sess.run(init)
运行了代码后会在本里文件中生成一个events××××的文件
这时候在到存放该文件的目录下运行下面命令
tensorboard --logdir logs
就可以在浏览器上看到图了。