手写数字案例

该代码实现了一个全连接层神经网络,用于MNIST手写数字识别任务。数据集加载后,通过训练模型,损失逐渐降低,准确率逐步提高,最终达到约95%的准确率。模型使用随机梯度下降优化器,损失函数为交叉熵,评估指标为准确率。
摘要由CSDN通过智能技术生成
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets("./mnist_data/", one_hot=True)
Extracting ./mnist_data/train-images-idx3-ubyte.gz
Extracting ./mnist_data/train-labels-idx1-ubyte.gz
Extracting ./mnist_data/t10k-images-idx3-ubyte.gz
Extracting ./mnist_data/t10k-labels-idx1-ubyte.gz
mnist.train.next_batch(1)#看下一个样本,这是图片样本的特征值数据
(array([[ 0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.50196081,
          1.        ,  1.        ,  1.        ,  1.        ,  1.        ,
          0.50196081,  0.50196081,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          1.        ,  1.        ,  1.        ,  1.        ,  1.        ,
          1.        ,  1.        ,  1.        ,  1.        ,  1.        ,
          0.74901962,  0.25098041,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.50196081,  1.        ,  1.        ,
          1.        ,  1.        ,  1.        ,  1.        ,  1.        ,
          1.        ,  1.        ,  1.        ,  1.        ,  0.74901962,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.74901962,  1.        ,  1.        ,  1.        ,  1.        ,
          0.50196081,  0.50196081,  0.50196081,  0.        ,  0.        ,
          0.74901962,  1.        ,  0.74901962,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.50196081,  1.        ,
          1.        ,  0.50196081,  0.25098041,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.74901962,  1.        ,
          0.74901962,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.50196081,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.25098041,  1.        ,  1.        ,  0.50196081,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.50196081,  1.        ,  1.        ,
          1.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.25098041,
          1.        ,  1.        ,  0.74901962,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.25098041,  0.50196081,
          0.50196081,  0.74901962,  1.        ,  1.        ,  0.74901962,
          0.25098041,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  1.        ,  1.        ,  1.        ,  1.        ,
          1.        ,  0.74901962,  0.25098041,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.25098041,  0.25098041,  0.50196081,  0.25098041,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.74901962,
          1.        ,  1.        ,  1.        ,  1.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.74901962,  1.        ,  1.        ,
          1.        ,  0.50196081,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.25098041,  0.74901962,  1.        ,
          1.        ,  1.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          1.        ,  1.        ,  1.        ,  0.74901962,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.25098041,  1.        ,  1.        ,  1.        ,
          0.50196081,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  1.        ,  1.        ,
          1.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.25098041,  0.74901962,  1.        ,
          1.        ,  1.        ,  1.        ,  0.25098041,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.50196081,  1.        ,  1.        ,  1.        ,
          1.        ,  0.50196081,  0.50196081,  0.50196081,  0.74901962,
          1.        ,  1.        ,  1.        ,  1.        ,  1.        ,
          0.74901962,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.25098041,  0.74901962,  1.        ,  1.        ,  1.        ,
          1.        ,  1.        ,  1.        ,  1.        ,  1.        ,
          1.        ,  1.        ,  0.74901962,  0.25098041,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.25098041,
          1.        ,  1.        ,  1.        ,  1.        ,  1.        ,
          1.        ,  1.        ,  1.        ,  1.        ,  0.50196081,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.25098041,  0.50196081,
          0.74901962,  1.        ,  1.        ,  1.        ,  1.        ,
          0.50196081,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
          0.        ,  0.        ,  0.        ,  0.        ]], dtype=float32),
 array([[ 0.,  0.,  0.,  1.,  0.,  0.,  0.,  0.,  0.,  0.]]))
mnist.train.images[0]

array([ 0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.50196081,
        1.        ,  1.        ,  1.        ,  1.        ,  1.        ,
        0.50196081,  0.50196081,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        1.        ,  1.        ,  1.        ,  1.        ,  1.        ,
        1.        ,  1.        ,  1.        ,  1.        ,  1.        ,
        0.74901962,  0.25098041,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.50196081,  1.        ,  1.        ,
        1.        ,  1.        ,  1.        ,  1.        ,  1.        ,
        1.        ,  1.        ,  1.        ,  1.        ,  0.74901962,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.74901962,  1.        ,  1.        ,  1.        ,  1.        ,
        0.50196081,  0.50196081,  0.50196081,  0.        ,  0.        ,
        0.74901962,  1.        ,  0.74901962,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.50196081,  1.        ,
        1.        ,  0.50196081,  0.25098041,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.74901962,  1.        ,
        0.74901962,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.50196081,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.25098041,  1.        ,  1.        ,  0.50196081,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.50196081,  1.        ,  1.        ,
        1.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.25098041,
        1.        ,  1.        ,  0.74901962,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.25098041,  0.50196081,
        0.50196081,  0.74901962,  1.        ,  1.        ,  0.74901962,
        0.25098041,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  1.        ,  1.        ,  1.        ,  1.        ,
        1.        ,  0.74901962,  0.25098041,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.25098041,  0.25098041,  0.50196081,  0.25098041,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.74901962,
        1.        ,  1.        ,  1.        ,  1.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.74901962,  1.        ,  1.        ,
        1.        ,  0.50196081,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.25098041,  0.74901962,  1.        ,
        1.        ,  1.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        1.        ,  1.        ,  1.        ,  0.74901962,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.25098041,  1.        ,  1.        ,  1.        ,
        0.50196081,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  1.        ,  1.        ,
        1.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.25098041,  0.74901962,  1.        ,
        1.        ,  1.        ,  1.        ,  0.25098041,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.50196081,  1.        ,  1.        ,  1.        ,
        1.        ,  0.50196081,  0.50196081,  0.50196081,  0.74901962,
        1.        ,  1.        ,  1.        ,  1.        ,  1.        ,
        0.74901962,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.25098041,  0.74901962,  1.        ,  1.        ,  1.        ,
        1.        ,  1.        ,  1.        ,  1.        ,  1.        ,
        1.        ,  1.        ,  0.74901962,  0.25098041,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.25098041,
        1.        ,  1.        ,  1.        ,  1.        ,  1.        ,
        1.        ,  1.        ,  1.        ,  1.        ,  0.50196081,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.25098041,  0.50196081,
        0.74901962,  1.        ,  1.        ,  1.        ,  1.        ,
        0.50196081,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ], dtype=float32)
mnist.train.labels[1]
array([ 0.,  0.,  0.,  0.,  0.,  0.,  0.,  0.,  1.,  0.])

设计的是全连接层网络

 def full_connection():
        """用全连接来对手写数字进行识别"""
        #1、准备数据
        mnist = input_data.read_data_sets("./mnist_data/", one_hot=True)
        x = tf.placeholder(dtype=tf.float32, shape=[None,784])
        y_true = tf.placeholder(dtype=tf.float32, shape=[None,10])
        
        #2、构建模型
        Weights = tf.Variable(initial_value=tf.random_normal(shape=[784,10]))
        bias = tf.Variable(initial_value=tf.random_normal(shape=[10]))#写形状需要用【】
        y_predict = tf.matmul(x,Weights) + bias
        
        #3、构造损失函数
        error = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=y_true,logits=y_predict ))
        #4、优化损失
        optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.1).minimize(error)
        #5、准确率计算
        equal_list = tf.equal(tf.argmax(y_true,1),tf.argmax(y_predict,1))
        #2)求平均
        accuracy = tf.reduce_mean(tf.cast(equal_list,tf.float32))
        
        #初始化变量
        init = tf.global_variables_initializer()
        #开启会话
        with tf.Session() as sess:
            sess.run(init)
            image, label = mnist.train.next_batch(100)
            
            print("训练之前损失%f"% sess.run(error,feed_dict={x:image,y_true:label}))
            #开始训练
            for i in range(500):
                _, loss, accuracy_value = sess.run([optimizer,error,accuracy], feed_dict={x:image, y_true:label})
                print("第%d次的训练,损失为%f,准确率为%f"%(i+1, loss, accuracy_value))
        
        return None
full_connection()
Extracting ./mnist_data/train-images-idx3-ubyte.gz
Extracting ./mnist_data/train-labels-idx1-ubyte.gz
Extracting ./mnist_data/t10k-images-idx3-ubyte.gz
Extracting ./mnist_data/t10k-labels-idx1-ubyte.gz
训练之前损失15.605354
第1次的训练,损失为15.605354,准确率为0.110000
第2次的训练,损失为14.266719,准确率为0.140000
第3次的训练,损失为13.258327,准确率为0.170000
第4次的训练,损失为12.408836,准确率为0.160000
第5次的训练,损失为11.665818,准确率为0.170000
第6次的训练,损失为11.006165,准确率为0.160000
第7次的训练,损失为10.429124,准确率为0.160000
第8次的训练,损失为9.931923,准确率为0.150000
第9次的训练,损失为9.496094,准确率为0.150000
第10次的训练,损失为9.108095,准确率为0.170000
第11次的训练,损失为8.757628,准确率为0.170000
第12次的训练,损失为8.438437,准确率为0.170000
第13次的训练,损失为8.146326,准确率为0.170000
第14次的训练,损失为7.879182,准确率为0.160000
第15次的训练,损失为7.636702,准确率为0.170000
第16次的训练,损失为7.417398,准确率为0.170000
第17次的训练,损失为7.218122,准确率为0.170000
第18次的训练,损失为7.036028,准确率为0.190000
第19次的训练,损失为6.867722,准确率为0.200000
第20次的训练,损失为6.709404,准确率为0.210000
第21次的训练,损失为6.558474,准确率为0.210000
第22次的训练,损失为6.413493,准确率为0.210000
第23次的训练,损失为6.273643,准确率为0.220000
第24次的训练,损失为6.138385,准确率为0.220000
第25次的训练,损失为6.007315,准确率为0.230000
第26次的训练,损失为5.880095,准确率为0.250000
第27次的训练,损失为5.756420,准确率为0.260000
第28次的训练,损失为5.636020,准确率为0.260000
第29次的训练,损失为5.518654,准确率为0.260000
第30次的训练,损失为5.404126,准确率为0.260000
第31次的训练,损失为5.292279,准确率为0.250000
第32次的训练,损失为5.182997,准确率为0.250000
第33次的训练,损失为5.076199,准确率为0.250000
第34次的训练,损失为4.971828,准确率为0.270000
第35次的训练,损失为4.869853,准确率为0.280000
第36次的训练,损失为4.770257,准确率为0.280000
第37次的训练,损失为4.673038,准确率为0.280000
第38次的训练,损失为4.578215,准确率为0.290000
第39次的训练,损失为4.485815,准确率为0.290000
第40次的训练,损失为4.395867,准确率为0.290000
第41次的训练,损失为4.308386,准确率为0.290000
第42次的训练,损失为4.223351,准确率为0.300000
第43次的训练,损失为4.140703,准确率为0.300000
第44次的训练,损失为4.060349,准确率为0.310000
第45次的训练,损失为3.982180,准确率为0.310000
第46次的训练,损失为3.906081,准确率为0.310000
第47次的训练,损失为3.831945,准确率为0.310000
第48次的训练,损失为3.759679,准确率为0.310000
第49次的训练,损失为3.689197,准确率为0.330000
第50次的训练,损失为3.620426,准确率为0.340000
第51次的训练,损失为3.553303,准确率为0.350000
第52次的训练,损失为3.487770,准确率为0.350000
第53次的训练,损失为3.423779,准确率为0.350000
第54次的训练,损失为3.361286,准确率为0.350000
第55次的训练,损失为3.300247,准确率为0.360000
第56次的训练,损失为3.240627,准确率为0.360000
第57次的训练,损失为3.182389,准确率为0.360000
第58次的训练,损失为3.125500,准确率为0.380000
第59次的训练,损失为3.069927,准确率为0.400000
第60次的训练,损失为3.015639,准确率为0.400000
第61次的训练,损失为2.962603,准确率为0.420000
第62次的训练,损失为2.910785,准确率为0.430000
第63次的训练,损失为2.860156,准确率为0.430000
第64次的训练,损失为2.810680,准确率为0.430000
第65次的训练,损失为2.762327,准确率为0.430000
第66次的训练,损失为2.715064,准确率为0.450000
第67次的训练,损失为2.668858,准确率为0.460000
第68次的训练,损失为2.623677,准确率为0.490000
第69次的训练,损失为2.579491,准确率为0.490000
第70次的训练,损失为2.536267,准确率为0.490000
第71次的训练,损失为2.493979,准确率为0.500000
第72次的训练,损失为2.452596,准确率为0.500000
第73次的训练,损失为2.412094,准确率为0.500000
第74次的训练,损失为2.372447,准确率为0.510000
第75次的训练,损失为2.333632,准确率为0.520000
第76次的训练,损失为2.295625,准确率为0.530000
第77次的训练,损失为2.258410,准确率为0.530000
第78次的训练,损失为2.221963,准确率为0.560000
第79次的训练,损失为2.186269,准确率为0.560000
第80次的训练,损失为2.151310,准确率为0.570000
第81次的训练,损失为2.117069,准确率为0.580000
第82次的训练,损失为2.083532,准确率为0.580000
第83次的训练,损失为2.050683,准确率为0.590000
第84次的训练,损失为2.018507,准确率为0.590000
第85次的训练,损失为1.986989,准确率为0.590000
第86次的训练,损失为1.956114,准确率为0.600000
第87次的训练,损失为1.925866,准确率为0.600000
第88次的训练,损失为1.896232,准确率为0.600000
第89次的训练,损失为1.867195,准确率为0.600000
第90次的训练,损失为1.838739,准确率为0.600000
第91次的训练,损失为1.810849,准确率为0.600000
第92次的训练,损失为1.783509,准确率为0.600000
第93次的训练,损失为1.756704,准确率为0.600000
第94次的训练,损失为1.730418,准确率为0.600000
第95次的训练,损失为1.704634,准确率为0.610000
第96次的训练,损失为1.679339,准确率为0.610000
第97次的训练,损失为1.654516,准确率为0.610000
第98次的训练,损失为1.630152,准确率为0.630000
第99次的训练,损失为1.606231,准确率为0.630000
第100次的训练,损失为1.582740,准确率为0.630000
第101次的训练,损失为1.559666,准确率为0.630000
第102次的训练,损失为1.536996,准确率为0.630000
第103次的训练,损失为1.514715,准确率为0.630000
第104次的训练,损失为1.492813,准确率为0.640000
第105次的训练,损失为1.471279,准确率为0.640000
第106次的训练,损失为1.450099,准确率为0.670000
第107次的训练,损失为1.429265,准确率为0.670000
第108次的训练,损失为1.408765,准确率为0.670000
第109次的训练,损失为1.388590,准确率为0.680000
第110次的训练,损失为1.368730,准确率为0.680000
第111次的训练,损失为1.349177,准确率为0.680000
第112次的训练,损失为1.329921,准确率为0.680000
第113次的训练,损失为1.310956,准确率为0.690000
第114次的训练,损失为1.292274,准确率为0.690000
第115次的训练,损失为1.273867,准确率为0.690000
第116次的训练,损失为1.255730,准确率为0.690000
第117次的训练,损失为1.237854,准确率为0.690000
第118次的训练,损失为1.220236,准确率为0.690000
第119次的训练,损失为1.202869,准确率为0.700000
第120次的训练,损失为1.185748,准确率为0.700000
第121次的训练,损失为1.168869,准确率为0.700000
第122次的训练,损失为1.152228,准确率为0.710000
第123次的训练,损失为1.135820,准确率为0.710000
第124次的训练,损失为1.119641,准确率为0.710000
第125次的训练,损失为1.103689,准确率为0.710000
第126次的训练,损失为1.087960,准确率为0.710000
第127次的训练,损失为1.072451,准确率为0.730000
第128次的训练,损失为1.057160,准确率为0.730000
第129次的训练,损失为1.042083,准确率为0.740000
第130次的训练,损失为1.027219,准确率为0.750000
第131次的训练,损失为1.012564,准确率为0.750000
第132次的训练,损失为0.998118,准确率为0.750000
第133次的训练,损失为0.983876,准确率为0.750000
第134次的训练,损失为0.969838,准确率为0.760000
第135次的训练,损失为0.956000,准确率为0.760000
第136次的训练,损失为0.942362,准确率为0.760000
第137次的训练,损失为0.928919,准确率为0.760000
第138次的训练,损失为0.915670,准确率为0.760000
第139次的训练,损失为0.902612,准确率为0.780000
第140次的训练,损失为0.889744,准确率为0.780000
第141次的训练,损失为0.877063,准确率为0.790000
第142次的训练,损失为0.864566,准确率为0.800000
第143次的训练,损失为0.852251,准确率为0.800000
第144次的训练,损失为0.840116,准确率为0.800000
第145次的训练,损失为0.828158,准确率为0.800000
第146次的训练,损失为0.816376,准确率为0.800000
第147次的训练,损失为0.804766,准确率为0.800000
第148次的训练,损失为0.793327,准确率为0.800000
第149次的训练,损失为0.782056,准确率为0.800000
第150次的训练,损失为0.770952,准确率为0.800000
第151次的训练,损失为0.760013,准确率为0.810000
第152次的训练,损失为0.749237,准确率为0.830000
第153次的训练,损失为0.738620,准确率为0.830000
第154次的训练,损失为0.728163,准确率为0.830000
第155次的训练,损失为0.717863,准确率为0.830000
第156次的训练,损失为0.707718,准确率为0.830000
第157次的训练,损失为0.697726,准确率为0.830000
第158次的训练,损失为0.687885,准确率为0.830000
第159次的训练,损失为0.678193,准确率为0.830000
第160次的训练,损失为0.668649,准确率为0.830000
第161次的训练,损失为0.659251,准确率为0.830000
第162次的训练,损失为0.649996,准确率为0.840000
第163次的训练,损失为0.640882,准确率为0.850000
第164次的训练,损失为0.631908,准确率为0.850000
第165次的训练,损失为0.623072,准确率为0.850000
第166次的训练,损失为0.614371,准确率为0.860000
第167次的训练,损失为0.605804,准确率为0.860000
第168次的训练,损失为0.597369,准确率为0.860000
第169次的训练,损失为0.589063,准确率为0.870000
第170次的训练,损失为0.580885,准确率为0.870000
第171次的训练,损失为0.572832,准确率为0.870000
第172次的训练,损失为0.564903,准确率为0.870000
第173次的训练,损失为0.557095,准确率为0.880000
第174次的训练,损失为0.549408,准确率为0.890000
第175次的训练,损失为0.541838,准确率为0.890000
第176次的训练,损失为0.534384,准确率为0.890000
第177次的训练,损失为0.527044,准确率为0.890000
第178次的训练,损失为0.519817,准确率为0.890000
第179次的训练,损失为0.512700,准确率为0.890000
第180次的训练,损失为0.505691,准确率为0.900000
第181次的训练,损失为0.498790,准确率为0.900000
第182次的训练,损失为0.491994,准确率为0.900000
第183次的训练,损失为0.485301,准确率为0.900000
第184次的训练,损失为0.478710,准确率为0.910000
第185次的训练,损失为0.472219,准确率为0.920000
第186次的训练,损失为0.465826,准确率为0.920000
第187次的训练,损失为0.459530,准确率为0.920000
第188次的训练,损失为0.453330,准确率为0.920000
第189次的训练,损失为0.447222,准确率为0.920000
第190次的训练,损失为0.441207,准确率为0.920000
第191次的训练,损失为0.435282,准确率为0.920000
第192次的训练,损失为0.429445,准确率为0.920000
第193次的训练,损失为0.423696,准确率为0.920000
第194次的训练,损失为0.418032,准确率为0.930000
第195次的训练,损失为0.412453,准确率为0.930000
第196次的训练,损失为0.406956,准确率为0.930000
第197次的训练,损失为0.401541,准确率为0.930000
第198次的训练,损失为0.396206,准确率为0.930000
第199次的训练,损失为0.390949,准确率为0.930000
第200次的训练,损失为0.385769,准确率为0.930000
第201次的训练,损失为0.380666,准确率为0.930000
第202次的训练,损失为0.375637,准确率为0.930000
第203次的训练,损失为0.370681,准确率为0.930000
第204次的训练,损失为0.365798,准确率为0.940000
第205次的训练,损失为0.360986,准确率为0.940000
第206次的训练,损失为0.356244,准确率为0.940000
第207次的训练,损失为0.351571,准确率为0.950000
第208次的训练,损失为0.346965,准确率为0.950000
第209次的训练,损失为0.342427,准确率为0.950000
第210次的训练,损失为0.337953,准确率为0.950000
第211次的训练,损失为0.333545,准确率为0.950000
第212次的训练,损失为0.329200,准确率为0.950000
第213次的训练,损失为0.324918,准确率为0.950000
第214次的训练,损失为0.320698,准确率为0.950000
第215次的训练,损失为0.316539,准确率为0.950000
第216次的训练,损失为0.312440,准确率为0.950000
第217次的训练,损失为0.308401,准确率为0.950000
第218次的训练,损失为0.304419,准确率为0.950000
第219次的训练,损失为0.300496,准确率为0.950000
第220次的训练,损失为0.296629,准确率为0.950000
第221次的训练,损失为0.292819,准确率为0.950000
第222次的训练,损失为0.289064,准确率为0.950000
第223次的训练,损失为0.285363,准确率为0.950000
第224次的训练,损失为0.281717,准确率为0.950000
第225次的训练,损失为0.278123,准确率为0.950000
第226次的训练,损失为0.274583,准确率为0.950000
第227次的训练,损失为0.271094,准确率为0.950000
第228次的训练,损失为0.267656,准确率为0.950000
第229次的训练,损失为0.264270,准确率为0.950000
第230次的训练,损失为0.260932,准确率为0.950000
第231次的训练,损失为0.257645,准确率为0.950000
第232次的训练,损失为0.254406,准确率为0.950000
第233次的训练,损失为0.251215,准确率为0.950000
第234次的训练,损失为0.248072,准确率为0.950000
第235次的训练,损失为0.244975,准确率为0.950000
第236次的训练,损失为0.241925,准确率为0.950000
第237次的训练,损失为0.238921,准确率为0.950000
第238次的训练,损失为0.235962,准确率为0.950000
第239次的训练,损失为0.233047,准确率为0.950000
第240次的训练,损失为0.230177,准确率为0.950000
第241次的训练,损失为0.227350,准确率为0.950000
第242次的训练,损失为0.224567,准确率为0.950000
第243次的训练,损失为0.221826,准确率为0.950000
第244次的训练,损失为0.219127,准确率为0.950000
第245次的训练,损失为0.216470,准确率为0.950000
第246次的训练,损失为0.213854,准确率为0.950000
第247次的训练,损失为0.211278,准确率为0.950000
第248次的训练,损失为0.208743,准确率为0.950000
第249次的训练,损失为0.206247,准确率为0.950000
第250次的训练,损失为0.203791,准确率为0.950000
第251次的训练,损失为0.201373,准确率为0.950000
第252次的训练,损失为0.198994,准确率为0.950000
第253次的训练,损失为0.196652,准确率为0.950000
第254次的训练,损失为0.194348,准确率为0.950000
第255次的训练,损失为0.192081,准确率为0.950000
第256次的训练,损失为0.189851,准确率为0.950000
第257次的训练,损失为0.187656,准确率为0.950000
第258次的训练,损失为0.185497,准确率为0.950000
第259次的训练,损失为0.183374,准确率为0.950000
第260次的训练,损失为0.181285,准确率为0.950000
第261次的训练,损失为0.179231,准确率为0.950000
第262次的训练,损失为0.177210,准确率为0.950000
第263次的训练,损失为0.175223,准确率为0.970000
第264次的训练,损失为0.173270,准确率为0.970000
第265次的训练,损失为0.171348,准确率为0.970000
第266次的训练,损失为0.169460,准确率为0.980000
第267次的训练,损失为0.167602,准确率为0.980000
第268次的训练,损失为0.165776,准确率为0.980000
第269次的训练,损失为0.163981,准确率为0.980000
第270次的训练,损失为0.162217,准确率为0.980000
第271次的训练,损失为0.160482,准确率为0.980000
第272次的训练,损失为0.158777,准确率为0.980000
第273次的训练,损失为0.157101,准确率为0.980000
第274次的训练,损失为0.155454,准确率为0.980000
第275次的训练,损失为0.153835,准确率为0.980000
第276次的训练,损失为0.152243,准确率为0.980000
第277次的训练,损失为0.150679,准确率为0.980000
第278次的训练,损失为0.149142,准确率为0.980000
第279次的训练,损失为0.147631,准确率为0.980000
第280次的训练,损失为0.146145,准确率为0.980000
第281次的训练,损失为0.144686,准确率为0.980000
第282次的训练,损失为0.143251,准确率为0.980000
第283次的训练,损失为0.141841,准确率为0.980000
第284次的训练,损失为0.140455,准确率为0.980000
第285次的训练,损失为0.139093,准确率为0.980000
第286次的训练,损失为0.137753,准确率为0.980000
第287次的训练,损失为0.136437,准确率为0.980000
第288次的训练,损失为0.135143,准确率为0.980000
第289次的训练,损失为0.133871,准确率为0.980000
第290次的训练,损失为0.132620,准确率为0.980000
第291次的训练,损失为0.131391,准确率为0.980000
第292次的训练,损失为0.130182,准确率为0.980000
第293次的训练,损失为0.128993,准确率为0.980000
第294次的训练,损失为0.127824,准确率为0.980000
第295次的训练,损失为0.126675,准确率为0.980000
第296次的训练,损失为0.125545,准确率为0.990000
第297次的训练,损失为0.124433,准确率为0.990000
第298次的训练,损失为0.123340,准确率为0.990000
第299次的训练,损失为0.122264,准确率为0.990000
第300次的训练,损失为0.121206,准确率为0.990000
第301次的训练,损失为0.120165,准确率为0.990000
第302次的训练,损失为0.119141,准确率为0.990000
第303次的训练,损失为0.118134,准确率为0.990000
第304次的训练,损失为0.117142,准确率为1.000000
第305次的训练,损失为0.116167,准确率为1.000000
第306次的训练,损失为0.115207,准确率为1.000000
第307次的训练,损失为0.114261,准确率为1.000000
第308次的训练,损失为0.113331,准确率为1.000000
第309次的训练,损失为0.112415,准确率为1.000000
第310次的训练,损失为0.111514,准确率为1.000000
第311次的训练,损失为0.110626,准确率为1.000000
第312次的训练,损失为0.109752,准确率为1.000000
第313次的训练,损失为0.108891,准确率为1.000000
第314次的训练,损失为0.108043,准确率为1.000000
第315次的训练,损失为0.107208,准确率为1.000000
第316次的训练,损失为0.106386,准确率为1.000000
第317次的训练,损失为0.105575,准确率为1.000000
第318次的训练,损失为0.104777,准确率为1.000000
第319次的训练,损失为0.103990,准确率为1.000000
第320次的训练,损失为0.103215,准确率为1.000000
第321次的训练,损失为0.102451,准确率为1.000000
第322次的训练,损失为0.101698,准确率为1.000000
第323次的训练,损失为0.100956,准确率为1.000000
第324次的训练,损失为0.100225,准确率为1.000000
第325次的训练,损失为0.099504,准确率为1.000000
第326次的训练,损失为0.098793,准确率为1.000000
第327次的训练,损失为0.098092,准确率为1.000000
第328次的训练,损失为0.097400,准确率为1.000000
第329次的训练,损失为0.096718,准确率为1.000000
第330次的训练,损失为0.096046,准确率为1.000000
第331次的训练,损失为0.095383,准确率为1.000000
第332次的训练,损失为0.094728,准确率为1.000000
第333次的训练,损失为0.094083,准确率为1.000000
第334次的训练,损失为0.093446,准确率为1.000000
第335次的训练,损失为0.092818,准确率为1.000000
第336次的训练,损失为0.092198,准确率为1.000000
第337次的训练,损失为0.091586,准确率为1.000000
第338次的训练,损失为0.090982,准确率为1.000000
第339次的训练,损失为0.090386,准确率为1.000000
第340次的训练,损失为0.089797,准确率为1.000000
第341次的训练,损失为0.089216,准确率为1.000000
第342次的训练,损失为0.088643,准确率为1.000000
第343次的训练,损失为0.088076,准确率为1.000000
第344次的训练,损失为0.087517,准确率为1.000000
第345次的训练,损失为0.086965,准确率为1.000000
第346次的训练,损失为0.086420,准确率为1.000000
第347次的训练,损失为0.085881,准确率为1.000000
第348次的训练,损失为0.085349,准确率为1.000000
第349次的训练,损失为0.084824,准确率为1.000000
第350次的训练,损失为0.084305,准确率为1.000000
第351次的训练,损失为0.083792,准确率为1.000000
第352次的训练,损失为0.083285,准确率为1.000000
第353次的训练,损失为0.082784,准确率为1.000000
第354次的训练,损失为0.082290,准确率为1.000000
第355次的训练,损失为0.081801,准确率为1.000000
第356次的训练,损失为0.081318,准确率为1.000000
第357次的训练,损失为0.080840,准确率为1.000000
第358次的训练,损失为0.080368,准确率为1.000000
第359次的训练,损失为0.079901,准确率为1.000000
第360次的训练,损失为0.079440,准确率为1.000000
第361次的训练,损失为0.078984,准确率为1.000000
第362次的训练,损失为0.078533,准确率为1.000000
第363次的训练,损失为0.078087,准确率为1.000000
第364次的训练,损失为0.077646,准确率为1.000000
第365次的训练,损失为0.077210,准确率为1.000000
第366次的训练,损失为0.076779,准确率为1.000000
第367次的训练,损失为0.076353,准确率为1.000000
第368次的训练,损失为0.075931,准确率为1.000000
第369次的训练,损失为0.075514,准确率为1.000000
第370次的训练,损失为0.075102,准确率为1.000000
第371次的训练,损失为0.074693,准确率为1.000000
第372次的训练,损失为0.074290,准确率为1.000000
第373次的训练,损失为0.073890,准确率为1.000000
第374次的训练,损失为0.073495,准确率为1.000000
第375次的训练,损失为0.073104,准确率为1.000000
第376次的训练,损失为0.072717,准确率为1.000000
第377次的训练,损失为0.072334,准确率为1.000000
第378次的训练,损失为0.071955,准确率为1.000000
第379次的训练,损失为0.071580,准确率为1.000000
第380次的训练,损失为0.071208,准确率为1.000000
第381次的训练,损失为0.070841,准确率为1.000000
第382次的训练,损失为0.070477,准确率为1.000000
第383次的训练,损失为0.070117,准确率为1.000000
第384次的训练,损失为0.069761,准确率为1.000000
第385次的训练,损失为0.069408,准确率为1.000000
第386次的训练,损失为0.069059,准确率为1.000000
第387次的训练,损失为0.068713,准确率为1.000000
第388次的训练,损失为0.068371,准确率为1.000000
第389次的训练,损失为0.068031,准确率为1.000000
第390次的训练,损失为0.067696,准确率为1.000000
第391次的训练,损失为0.067363,准确率为1.000000
第392次的训练,损失为0.067034,准确率为1.000000
第393次的训练,损失为0.066708,准确率为1.000000
第394次的训练,损失为0.066385,准确率为1.000000
第395次的训练,损失为0.066065,准确率为1.000000
第396次的训练,损失为0.065748,准确率为1.000000
第397次的训练,损失为0.065434,准确率为1.000000
第398次的训练,损失为0.065123,准确率为1.000000
第399次的训练,损失为0.064815,准确率为1.000000
第400次的训练,损失为0.064510,准确率为1.000000
第401次的训练,损失为0.064208,准确率为1.000000
第402次的训练,损失为0.063908,准确率为1.000000
第403次的训练,损失为0.063612,准确率为1.000000
第404次的训练,损失为0.063318,准确率为1.000000
第405次的训练,损失为0.063026,准确率为1.000000
第406次的训练,损失为0.062738,准确率为1.000000
第407次的训练,损失为0.062451,准确率为1.000000
第408次的训练,损失为0.062168,准确率为1.000000
第409次的训练,损失为0.061887,准确率为1.000000
第410次的训练,损失为0.061608,准确率为1.000000
第411次的训练,损失为0.061332,准确率为1.000000
第412次的训练,损失为0.061059,准确率为1.000000
第413次的训练,损失为0.060788,准确率为1.000000
第414次的训练,损失为0.060519,准确率为1.000000
第415次的训练,损失为0.060252,准确率为1.000000
第416次的训练,损失为0.059988,准确率为1.000000
第417次的训练,损失为0.059726,准确率为1.000000
第418次的训练,损失为0.059467,准确率为1.000000
第419次的训练,损失为0.059209,准确率为1.000000
第420次的训练,损失为0.058954,准确率为1.000000
第421次的训练,损失为0.058701,准确率为1.000000
第422次的训练,损失为0.058450,准确率为1.000000
第423次的训练,损失为0.058202,准确率为1.000000
第424次的训练,损失为0.057955,准确率为1.000000
第425次的训练,损失为0.057710,准确率为1.000000
第426次的训练,损失为0.057468,准确率为1.000000
第427次的训练,损失为0.057227,准确率为1.000000
第428次的训练,损失为0.056988,准确率为1.000000
第429次的训练,损失为0.056752,准确率为1.000000
第430次的训练,损失为0.056517,准确率为1.000000
第431次的训练,损失为0.056284,准确率为1.000000
第432次的训练,损失为0.056054,准确率为1.000000
第433次的训练,损失为0.055825,准确率为1.000000
第434次的训练,损失为0.055597,准确率为1.000000
第435次的训练,损失为0.055372,准确率为1.000000
第436次的训练,损失为0.055149,准确率为1.000000
第437次的训练,损失为0.054927,准确率为1.000000
第438次的训练,损失为0.054707,准确率为1.000000
第439次的训练,损失为0.054489,准确率为1.000000
第440次的训练,损失为0.054272,准确率为1.000000
第441次的训练,损失为0.054057,准确率为1.000000
第442次的训练,损失为0.053844,准确率为1.000000
第443次的训练,损失为0.053633,准确率为1.000000
第444次的训练,损失为0.053423,准确率为1.000000
第445次的训练,损失为0.053215,准确率为1.000000
第446次的训练,损失为0.053008,准确率为1.000000
第447次的训练,损失为0.052803,准确率为1.000000
第448次的训练,损失为0.052600,准确率为1.000000
第449次的训练,损失为0.052398,准确率为1.000000
第450次的训练,损失为0.052197,准确率为1.000000
第451次的训练,损失为0.051998,准确率为1.000000
第452次的训练,损失为0.051801,准确率为1.000000
第453次的训练,损失为0.051605,准确率为1.000000
第454次的训练,损失为0.051411,准确率为1.000000
第455次的训练,损失为0.051218,准确率为1.000000
第456次的训练,损失为0.051026,准确率为1.000000
第457次的训练,损失为0.050836,准确率为1.000000
第458次的训练,损失为0.050647,准确率为1.000000
第459次的训练,损失为0.050460,准确率为1.000000
第460次的训练,损失为0.050274,准确率为1.000000
第461次的训练,损失为0.050090,准确率为1.000000
第462次的训练,损失为0.049906,准确率为1.000000
第463次的训练,损失为0.049724,准确率为1.000000
第464次的训练,损失为0.049544,准确率为1.000000
第465次的训练,损失为0.049364,准确率为1.000000
第466次的训练,损失为0.049186,准确率为1.000000
第467次的训练,损失为0.049010,准确率为1.000000
第468次的训练,损失为0.048834,准确率为1.000000
第469次的训练,损失为0.048660,准确率为1.000000
第470次的训练,损失为0.048487,准确率为1.000000
第471次的训练,损失为0.048315,准确率为1.000000
第472次的训练,损失为0.048144,准确率为1.000000
第473次的训练,损失为0.047975,准确率为1.000000
第474次的训练,损失为0.047807,准确率为1.000000
第475次的训练,损失为0.047639,准确率为1.000000
第476次的训练,损失为0.047474,准确率为1.000000
第477次的训练,损失为0.047309,准确率为1.000000
第478次的训练,损失为0.047145,准确率为1.000000
第479次的训练,损失为0.046983,准确率为1.000000
第480次的训练,损失为0.046821,准确率为1.000000
第481次的训练,损失为0.046661,准确率为1.000000
第482次的训练,损失为0.046502,准确率为1.000000
第483次的训练,损失为0.046344,准确率为1.000000
第484次的训练,损失为0.046186,准确率为1.000000
第485次的训练,损失为0.046030,准确率为1.000000
第486次的训练,损失为0.045875,准确率为1.000000
第487次的训练,损失为0.045721,准确率为1.000000
第488次的训练,损失为0.045569,准确率为1.000000
第489次的训练,损失为0.045417,准确率为1.000000
第490次的训练,损失为0.045266,准确率为1.000000
第491次的训练,损失为0.045116,准确率为1.000000
第492次的训练,损失为0.044967,准确率为1.000000
第493次的训练,损失为0.044819,准确率为1.000000
第494次的训练,损失为0.044672,准确率为1.000000
第495次的训练,损失为0.044526,准确率为1.000000
第496次的训练,损失为0.044381,准确率为1.000000
第497次的训练,损失为0.044237,准确率为1.000000
第498次的训练,损失为0.044093,准确率为1.000000
第499次的训练,损失为0.043951,准确率为1.000000
第500次的训练,损失为0.043810,准确率为1.000000

准准确率的计算方法
1)比较输出的结果最大值和真实值的最大值所在位置
np.argmax()返回最大值所在位置
y_truw的形状是(None,10)
equal_list = tf.equal(tf.argmax(y_true,1),)这里是bool类型
tf.argmax(y_predict,1)
accuacy = tf.reduce_me(tf.cast(equal_list,tf.float32))#将布尔型转化为浮点类型,并且求平均值

2)求平均

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
经导师精心指导并认可、获 98 分的毕业设计项目!【项目资源】:微信小程序。【项目说明】:聚焦计算机相关专业毕设及实战操练,可作课程设计与期末大作业,含全部源码,能直用于毕设,经严格调试,运行有保障!【项目服务】:有任何使用上的问题,欢迎随时与博主沟通,博主会及时解答。 经导师精心指导并认可、获 98 分的毕业设计项目!【项目资源】:微信小程序。【项目说明】:聚焦计算机相关专业毕设及实战操练,可作课程设计与期末大作业,含全部源码,能直用于毕设,经严格调试,运行有保障!【项目服务】:有任何使用上的问题,欢迎随时与博主沟通,博主会及时解答。 经导师精心指导并认可、获 98 分的毕业设计项目!【项目资源】:微信小程序。【项目说明】:聚焦计算机相关专业毕设及实战操练,可作课程设计与期末大作业,含全部源码,能直用于毕设,经严格调试,运行有保障!【项目服务】:有任何使用上的问题,欢迎随时与博主沟通,博主会及时解答。 经导师精心指导并认可、获 98 分的毕业设计项目!【项目资源】:微信小程序。【项目说明】:聚焦计算机相关专业毕设及实战操练,可作课程设计与期末大作业,含全部源码,能直用于毕设,经严格调试,运行有保障!【项目服务】:有任何使用上的问题,欢迎随时与博主沟通,博主会及时解答。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

self.键盘上的钢琴师.LX

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值