(7) 数字识别1.0神经网络案例

1.介绍

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2.案例

import tensorflow as tf
#导入手写数字相关工具包
from tensorflow.examples.tutorials.mnist import input_data
#载入数据集,这个语句会自动下载数据集,若网速慢也可以自己下载
mnist=input_data.read_data_sets("MNIST_data",one_hot=True)
Successfully downloaded train-images-idx3-ubyte.gz 9912422 bytes.
Extracting MNIST_data\train-images-idx3-ubyte.gz
Successfully downloaded train-labels-idx1-ubyte.gz 28881 bytes.
Extracting MNIST_data\train-labels-idx1-ubyte.gz
Successfully downloaded t10k-images-idx3-ubyte.gz 1648877 bytes.
Extracting MNIST_data\t10k-images-idx3-ubyte.gz
Successfully downloaded t10k-labels-idx1-ubyte.gz 4542 bytes.
Extracting MNIST_data\t10k-labels-idx1-ubyte.gz
#定义每次放入神经网路的图片数量,也就是训练数量
batch_size=50
#计算共有多少批次,mnist.train.num_examples代表训练数据的数量
n_batch=mnist.train.num_examples//batch_size

#定义两个placeholder
#[None,784]:行数不定,但有784列(因为图片像素是28*28=784,数据集表示为60000*784,因此此处列数也为784)
x=tf.placeholder(tf.float32,[None,784])
#[None,10]:数据集中每个数字可分为0到9十个类
y=tf.placeholder(tf.float32,[None,10])

#中间层/隐藏层
wMid=tf.Variable(tf.random.normal([784,200])) #输出层784个神经元,中间层定义200个
bMid=tf.Variable(tf.random.normal([200]))
mid=tf.nn.elu(tf.matmul(x,wMid)+bMid)

# #创建简单的神经网络:输入层784个神经元,输出层10个神经元
# w=tf.Variable(tf.zeros([784,10])) #权值,连接输入和输出
# b=tf.Variable(tf.zeros([10]))   #偏置值
# prediction=tf.nn.softmax(tf.matmul(x,w)+b)  # 通过tf.matmul(x,w)+b计算出信号总和,再通过softmax转为概率值

#输出层
w=tf.Variable(tf.zeros([200,10])) #权值,此处权值连接中间层和输出层
b=tf.Variable(tf.random.normal([10]))   #偏置值
prediction=tf.nn.softmax(tf.matmul(mid,w)+b)  # 通过tf.matmul(x,w)+b计算出信号总和,再通过softmax转为概率值

#损失函数/二次代价函数
loss=tf.reduce_mean(tf.square(y-prediction))

#使用梯度下降法来最小化loss
train_step=tf.train.GradientDescentOptimizer(0.1).minimize(loss)

#定义准确率,来求训练好的模型的预测值准不准确:
#tf.argmax(y,1)是返回y所有类中概率最大的那个;equal是比较两个参数是否相等,返回bool类型
#因为tf.argmax(y,1)的结果是列表,因此correct_prediction也是列表
correct_prediction=tf.equal(tf.argmax(y,1),tf.argmax(prediction,1))
#接下来求准确率,tf.cast()是将bool类型的值转换为浮点型;再用reduce_mean()求平均值得出概率
accuracy=tf.reduce_mean(tf.cast(correct_prediction,tf.float32))

#初始化变量
init=tf.global_variables_initializer()

with tf.Session() as sess:
    sess.run(init)
    for num in range(21):  #一共训练 21 次
        for i in range(n_batch):    # n_batch是训练数据的批次数量
            #获得当前批次的图片,图片数据保存在batchX,图片标签保存在batchY
            batchX,batchY=mnist.train.next_batch(batch_size)
            sess.run(train_step,feed_dict={x:batchX,y:batchY})
        #每训练完一次,看一次准确率,传的数据是测试集的图片和标签
        print("第{0}次准确率:".format({num}),sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels}))
第{0}次准确率: 0.8965
第{1}次准确率: 0.9069
第{2}次准确率: 0.9141
第{3}次准确率: 0.9039
第{4}次准确率: 0.9136
第{5}次准确率: 0.9159
第{6}次准确率: 0.9147
第{7}次准确率: 0.9195
第{8}次准确率: 0.9151
第{9}次准确率: 0.9114
第{10}次准确率: 0.9161
第{11}次准确率: 0.9152
第{12}次准确率: 0.9118
第{13}次准确率: 0.9067
第{14}次准确率: 0.9187
第{15}次准确率: 0.9208
第{16}次准确率: 0.9168
第{17}次准确率: 0.9191
第{18}次准确率: 0.919
第{19}次准确率: 0.9142
第{20}次准确率: 0.9203

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值