MNIST机器学习入门的中文官网,这个例子官网从上到下边分析边进行,而且还是基于Python2的,这里是通过Python3并且以py文件的形式进行编写,方便大家学习!
# -*- coding: utf-8 -*-
from tensorflow.examples.tutorials.mnist import input_data
import tensorflow as tf
# 下载测试数据集mnist
# 会自动下载,网络不好的话就多试几次
# 第一个参数为下载的路径,one_hot 是二进制读入的方式
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)
# 实现回归模型
# x不是一个特定的值,而是一个占位符placeholder
x = tf.placeholder("float", [None, 784])
W = tf.Variable(tf.zeros([784, 10]))
b = tf.Variable(tf.zeros([10]))
# tf.matmul(X,W)表示x乘以W,对应之前等式里面的Wx + b
y = tf.nn.softmax(tf.matmul(x, W) + b)
# 训练模型
# 实际分布
y_ = tf.placeholder("float", [None, 10])
# 交叉熵
cross_entropy = -tf.reduce_sum(y_ * tf.log(y))
# 梯度下降算法(gradient descent algorithm)以0.01的学习速率最小化交叉熵
# 当然TensorFlow也提供了其他许多优化算法:只要简单地调整一行代码就可以使用其他的算法。
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)
# 初始化变量
init = tf.global_variables_initializer()
with tf.Session() as sess:
# 启动我们的模型,并且初始化变量
sess.run(init)
# 开始训练模型,这里我们让模型循环训练1000次!
for i in range(1000):
# 随机抓取训练数据中的100个批处理数据点
batch_xs, batch_ys = mnist.train.next_batch(100)
# 用这些数据点作为参数替换之前的占位符来运行train_step
sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})
# 评估我们的模型
# tf.argmax 是一个非常有用的函数,它能给出某个tensor对象在某一维上的其数据最大值所在的索引值
# f.argmax(y,1)返回的是模型对于任一输入x预测到的标签值,而 tf.argmax(y_,1) 代表正确的标签
# 用 tf.equal 来检测我们的预测是否真实标签匹配
correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))
# 把布尔值转换成浮点数,然后取平均值
accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))
# 计算所学习到的模型在测试数据集上面的正确率
print(sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels}))
# 结果:
# 0.9205
这里还是要提醒大家要细心,很容易将y和y_等写错,另外不要直接复制代码,希望大家自己手敲,这样可以加深印象。
如果大家在开发过程中有碰到任何问题,可以在下方进行评论留言,将第一时间为你解决!