#载入数据集
mnist=input_data.read_data_sets("MNIST_data",one_hot=True) #one_hot:将标签转换为0和1的形式
#每个批次的大小
batch_size=100 #神经网络中训练按照批次,并不是一张一张图片训练的,批次大小自定义(按照矩阵的形式放进去)
#计算一共有多少个批次
n_batch=mnist.train.num_examples//batch_size
#参数概要
def variable_summaries(var):
with tf.name_scope('summaries'):
mean=tf.reduce_mean(var)
tf.summary.scalar('mean',mean)#平均值
with tf.name_scope('stddev'):
stddev=tf.sqrt(tf.reduce_mean(tf.square(var-mean)))
tf.summary.scalar('stddev',stddev)#标准差
tf.summary.scalar('max',tf.reduce_max(var))#最大值
tf.summary.scalar('min',tf.reduce_min(var))#最小值
tf.summary.histogram('histogram',var)#直方图
#命名空间
with tf.name_scope('input'):#‘input 可以改为自己的名字
#定义两个placeholder,784表示:每张图片是28*28=784
x=tf.placeholder(tf.float32,[None,784],name='X-input')
#y表示标签,数字是0-9,所以有10列
y=tf.placeholder(tf.float32,[None,10],name='Y-input')
with tf.name_scope('layer'):
with tf.name_scope('wights'):
#创建一个简单的神经网络
W=tf.Variable(tf.zeros([784,10]),name='w')#权值。输入层,784个输入值;输出层:10个标签(0-9)
variable_summaries(W)
with tf.name_scope('bias'):
b=tf.Variable(tf.zeros([10]),name='b')#偏置
variable_summaries(b)
with tf.name_scope('wx_plus_b'):
wx_plus_b=tf.matmul(x,W)+b
with tf.name_scope('softmax'):
prediction=tf.nn.softmax(wx_plus_b)#tf.matmul(x,W)+b信号的总和,softmax函数将这个信号的总和转变为概率值
with tf.name_scope('loss'):
#二次代价函数
loss=tf.reduce_mean(tf.square(prediction-y))
tf.summary.scalar('loss',loss)
with tf.name_scope('train'):
#使用梯度下降法,0.2的学习率
train_step=tf.train.GradientDescentOptimizer(0.2).minimize(loss)
#变量初始化
init=tf.global_variables_initializer()
with tf.name_scope('accuracy'):
#结果存放在一个bool型列表中
#tf.equal(a,b):比较a,b的大小是否一样,一样就返回true,否则返回false
#tf.argmax(y,1)求y标签中最大的值在哪个位置
with tf.name_scope('correct_predict'):
correct_prediction=tf.equal(tf.argmax(y,1),tf.argmax(prediction,1))
with tf.name_scope('accuracy'):
#求准确率
#tf.cast(correct_prediction,tf.float32)格式转换,将bool型转为float,然后在求平均值
accuracy=tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
tf.summary.scalar('accuracy',accuracy)
#合并所有的summary
merged=tf.summary.merge_all()
with tf.Session() as sess:
sess.run(init)
writer=tf.summary.FileWriter('logs/',sess.graph)#将结果保存在logs目录下
#所有的图片训练21次
for epoch in range(51):
#将所有的图片训练一次
for batch in range(n_batch):
batch_xs,batch_ys=mnist.train.next_batch(batch_size)#获取每一个批次的100张图片,图片数据保存在batch_xs,图片标签保存在:batch_ys
summary,_ =sess.run([merged,train_step],feed_dict={x:batch_xs,y:batch_ys})#遍训练,边统计,将统计值传入到summary中
writer.add_summary(summary,epoch)#每执行一个周期,就将结果写入到文件中
acc=sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels})
print("Iter "+str(epoch)+",Testing Accuracy " +str(acc))
tensorflow(9) tensorboard 网络运行
最新推荐文章于 2024-09-29 11:43:58 发布