tensorflow(9) tensorboard 网络运行

#载入数据集
mnist=input_data.read_data_sets("MNIST_data",one_hot=True) #one_hot:将标签转换为0和1的形式

#每个批次的大小
batch_size=100  #神经网络中训练按照批次,并不是一张一张图片训练的,批次大小自定义(按照矩阵的形式放进去)

#计算一共有多少个批次
n_batch=mnist.train.num_examples//batch_size

#参数概要
def variable_summaries(var):
    with tf.name_scope('summaries'):
        mean=tf.reduce_mean(var)
        tf.summary.scalar('mean',mean)#平均值
        with tf.name_scope('stddev'):
            stddev=tf.sqrt(tf.reduce_mean(tf.square(var-mean)))
        tf.summary.scalar('stddev',stddev)#标准差
        tf.summary.scalar('max',tf.reduce_max(var))#最大值
        tf.summary.scalar('min',tf.reduce_min(var))#最小值
        tf.summary.histogram('histogram',var)#直方图

#命名空间
with tf.name_scope('input'):#‘input 可以改为自己的名字
    #定义两个placeholder,784表示:每张图片是28*28=784
    x=tf.placeholder(tf.float32,[None,784],name='X-input')

    #y表示标签,数字是0-9,所以有10列
    y=tf.placeholder(tf.float32,[None,10],name='Y-input')

with tf.name_scope('layer'):
    with tf.name_scope('wights'):
        #创建一个简单的神经网络
        W=tf.Variable(tf.zeros([784,10]),name='w')#权值。输入层,784个输入值;输出层:10个标签(0-9)
        variable_summaries(W)
    with tf.name_scope('bias'):
        b=tf.Variable(tf.zeros([10]),name='b')#偏置
        variable_summaries(b)
    with tf.name_scope('wx_plus_b'):
        wx_plus_b=tf.matmul(x,W)+b 
    with tf.name_scope('softmax'):
        prediction=tf.nn.softmax(wx_plus_b)#tf.matmul(x,W)+b信号的总和,softmax函数将这个信号的总和转变为概率值

with tf.name_scope('loss'):
    #二次代价函数
    loss=tf.reduce_mean(tf.square(prediction-y))
    tf.summary.scalar('loss',loss)

with tf.name_scope('train'):
    #使用梯度下降法,0.2的学习率
    train_step=tf.train.GradientDescentOptimizer(0.2).minimize(loss)

#变量初始化
init=tf.global_variables_initializer()

with tf.name_scope('accuracy'):
    #结果存放在一个bool型列表中
    #tf.equal(a,b):比较a,b的大小是否一样,一样就返回true,否则返回false
    #tf.argmax(y,1)求y标签中最大的值在哪个位置
    with tf.name_scope('correct_predict'): 
        correct_prediction=tf.equal(tf.argmax(y,1),tf.argmax(prediction,1))
    with tf.name_scope('accuracy'):
        #求准确率
        #tf.cast(correct_prediction,tf.float32)格式转换,将bool型转为float,然后在求平均值
        accuracy=tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
        tf.summary.scalar('accuracy',accuracy)

#合并所有的summary
merged=tf.summary.merge_all()

with tf.Session() as sess:
    sess.run(init)
    writer=tf.summary.FileWriter('logs/',sess.graph)#将结果保存在logs目录下
    #所有的图片训练21次
    for epoch in range(51):
        #将所有的图片训练一次
        for batch in range(n_batch):
            batch_xs,batch_ys=mnist.train.next_batch(batch_size)#获取每一个批次的100张图片,图片数据保存在batch_xs,图片标签保存在:batch_ys
            summary,_ =sess.run([merged,train_step],feed_dict={x:batch_xs,y:batch_ys})#遍训练,边统计,将统计值传入到summary中

        writer.add_summary(summary,epoch)#每执行一个周期,就将结果写入到文件中
        acc=sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels})
        print("Iter "+str(epoch)+",Testing Accuracy " +str(acc))







评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值