今天小路在学习tensorflow编程的时候突然出现一些让我苦恼的问题,就是:图形化展示tensorflow代码(Python code),我们使用的是tensorboard!最后展示成功!爽歪歪~,进入正题:
第一步:编写代码!如下:一个简单的神经网络层的使用:
#code=utf8
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
###添加层 输入 输入的大小 输出的大小 activation_function=None意思为激励函数
def add_layer(inputs,in_size,out_size,activation_function=None):
with tf.name_scope('layer'):
with tf.name_scope('Weights'):
####变量初始化,random_normal定义一个随机变量矩阵 [in_size,out_size]输出张量的形状,必选
Weights=tf.Variable(tf.random_normal([in_size,out_size]))
#tf.histogram_summary(layer_name + '/weights', Weights)
with tf.name_scope('biases'):
###tf.zeros(1,out_size)是一个二维的含零的一行out_size列的数组
biases=tf.Variable(tf.zeros([1,out_size])+0.1)
#tf.histogram_summary(layer_name + '/biases', biases)
with tf.name_scope('Wx_plus_b'):
###tf.matmul(a,b)将矩阵a乘以矩阵b,生成a * b。
Wx_plus_b = tf.matmul(inputs,Weights)+biases
###activation_function is None 如果为线性函数,没有激励函数
if activation_function is None:
outputs = Wx_plus_b #那么函数曲线就是我们的 Wx_plus_b = W*x+b
else:
outputs = activation_function(Wx_plus_b)#否则我们的函数是在激励函数的作用下改变其线性变成非线性。激励函数有ReLU Sigmaid 等等
#tf.histogram_summary(layer_name + '/outputs', outputs)
return outputs
##创建数据start--
x_data = np.linspace(-1,1,300)[:,np.newaxis]#通过[:,np.newaxis]讲我们随机生成的1行300列的矩阵转置成300行1列的矩阵了
noise = np.random.normal(0,0.05,x_data.shape)
y_data = np.square(x_data)-0.5+noise
with tf.name_scope('inputs'):
xs=tf.placeholder(tf.float32,[None,1],name="x_inputs") ###此函数可以理解为形参,用于定义过程,在执行的时候再赋具体的值 [None,1]任意 行 1 列
ys=tf.placeholder(tf.float32,[None,1],name="y_inputs")
##创建数据end---
l1=add_layer(xs,1,10,activation_function=tf.nn.relu)###定义一个隐藏层 1个输入参数 10个神经元 relu激励函数
prediction=add_layer(l1,10,1,activation_function=None)###输出层 ,它的输入是l1,10个输入参数,1个神经元输出 没有激励函数
with tf.name_scope('loss'):
loss= tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction),
reduction_indices=[1])) ###计算损失函数真实值和预测值的差的平方和求均值 reduction_indices=[1]是按列求和
#tf.scalar_summary('loss',loss)
with tf.name_scope('train'):
train_step=tf.train.GradientDescentOptimizer(0.1).minimize(loss)
sess=tf.Session()
# tf.train.SummaryWriter soon be deprecated, use following
if int((tf.__version__).split('.')[1]) < 12 and int((tf.__version__).split('.')[0]) < 1:
writer = tf.train.summaryWriter('logs/',sess.graph)
#writer.add_summary(summary)
else:
writer = tf.summary.FileWriter('logs/',sess.graph)
#writer.add_summary(summary)
# tf.initialize_all_variables() no long valid from
# 2017-03-02 if using tensorflow >= 0.12
#init=tf.global_variables_initializer()
if int((tf.__version__).split('.')[1]) < 12 and int((tf.__version__).split('.')[0]) < 1:
init = tf.initialize_all_variables()
else:
init = tf.global_variables_initializer()
sess.run(init)
fig=plt.figure()
ax=fig.add_subplot(1,1,1)
ax.scatter(x_data,y_data,c='y',marker='+')
plt.ion() #plt.show(block=False)为老的版本的
plt.ion()
for i in range(1000):
sess.run(train_step,feed_dict={xs:x_data,ys:y_data})
if i%20==0:
# print(sess.run(loss,feed_dict={xs:x_data,ys:y_data}))
try:
ax.lines.remove(lines[0])#先抹除原图像
except Exception:
pass
prediction_value =sess.run(prediction,feed_dict={xs:x_data})
lines=ax.plot(x_data,prediction_value,'r-',lw=5)
# writer.add_summary(prediction_value, i)
plt.pause(0.1)
plt.ioff()
plt.show()
sess.close()
本人的备注很多,毕竟是初次学习,为了更好的学好!
然后,我们进入可视化展示内容!在spyder上运行run layer.py的时候显示的结果如下:
之后呢,我决定在tensorboard上进行运行:
在这里的步骤如下:一定要细心哦:
1.在anaconda上打开anaconda prompt ,然后激活tensorflow,激活方法是:输入:activate tensorflow
2.找到刚刚我们运行的文件layer.py生成的logs位置:
我的是:F:/hhhh/tensortest/logs (是不是很随意,哥就是那么任性!你咬我啊~)
然后,在logs上一个目录下运行这:tensorboard --logdir=logs (注意:logs一般不加引号""or'' )
3.此时我们的黑屏上会出现一个连接 比如这样的:http://DESKTOP-L7PRRDN:6006 ,拷贝放在浏览器上搜索,即可出现这个页面如下:
然后点击:图形选项,就会出来这个结果:
好了,这就是过程,是不是爽歪歪~!!!!