import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
mnist=input_data.read_data_sets("MNIST_data/",one_hot=True)#加载数据
x=tf.placeholder(tf.float32,[None,784])#创建x占位符,它是我们希望tf为我们计算的一个节点,也即是待识别的图片
#None表示这一维的大小可以是任意的,也即是可以传递任意张图片给这个占位符
W=tf.Variable(tf.zeros([784,10]))#W为softmax模型的参数,将一个784维的输入转成10维的输出,在tf中,模型的参数用tf.Variable表示
b=tf.Variable(tf.zeros([10]))
y=tf.nn.softmax(tf.matmul(x,W)+b)#y表示模型的输出
y_=tf.placeholder(tf.float32,[None,10])#y_是实际的图像标签,同样以占位符表示
#接下来定义交叉熵损失
cross_entropy=tf.reduce_mean(-tf.reduce_sum(y_*tf.log(y)))
#接下来即是优化损失(梯度下降),tf会默认对所有的变量计算梯度(W和b)并更新它们的值,0.01是学习率
train_step=tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)
#创建会话(Session),只有在Session中才能执行优化
sess=tf.InteractiveSession()
#运行之前需要对所有的变量进行初始化分配内存
tf.global_variables_initializer().run()
#接下里即可执行优化
for _ in range(1000):#训练1000次
batch_xs,batch_ys=mnist.train.next_batch(100)#分别对应两个占位符x和y_,每次提取100个训练图像及其标签进行训练
sess.run(train_step,feed_dict={x:batch_xs,y_:batch_ys})
#模型训练完毕,下面求正确的预测结果,计算预测准确率
correct_prediction=tf.equal(tf.argmax(y,1),tf.argmax(y_,1))
accuracy=tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
print(sess.run(accuracy,feed_dict={x:mnist.test.images,y_:mnist.test.labels}))
对于打开不了tensorborad问题的解决方法:tensorboard --logdir logs --host=127.0.0.1