Tensorflow之手写数字识别(一)

MNIST数据集

1.MNIST数据集的官网:yann.lecun.com
2.下载下来的数据分为两部分:60000行的训练集(mnist.train)和10000行的测试数据集(mnist.test)。
3. 每一张图片包含28 * 28个像素,我们把这一个数组展开成向量,长度是28*28=784(二维形状转换为1维向量).因此在MNIST训练数据集中mnist.train.images是一个形状为[60000,784]的张量,第一维度数字用来索引图片,第二个维度数字用来索引每张图片中的像素点。图片里的某个像素的强度值介于0-1之间。(0代表白色,1代表黑色,0-1之间代表灰度)。
在这里插入图片描述
4. MNIST数据集的标签是0-9的数字,我们要把标签转化为“one-hot vectors".比如数字0表示为:[1,0,0,0,0,0,0,0,0,0],数字3表示为:[0,0,0,1,0,0,0,0,0]
5. mnist.train.labels是一个[60000,10]的数字矩阵。
在这里插入图片描述

定义神经网络对图片分类

一个简单的图片分类,可以加入中间层网络

softmax函数

在这里插入图片描述
并不能得到为直观的感受,转换为概率之后会便于找出概率最大的那张图片

import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
# 载入数据
mnist = input_data.read_data_sets('MNIST_data',one_hot=True) 
#每个批次的大小,每次训练的时候并不是一次性将所有的图片放入神经网络进行训练。
batch_size = 100 # 一次性以矩阵的形式放入100张图片
# 计算共有多少个批次
n_batch = mnist.train.num_examples // batch_size

# 定义placeholder
x = tf.placeholder(tf.float32,[None, 784]) #本文中None的值是100
y = tf.placeholder(tf.float32,[None, 10])

# 创建一个简单的神经网络
W = tf.Variable(tf.zeros([784,10]))
b = tf.Variable(tf.zeros([10]))
prediction = tf.nn.softmax(tf.matmul(x,W)+b)

# 二次代价函数
loss = tf.reduce_mean(tf.square(y - prediction))

# 使用梯度下降法
train_step = tf.train.GradientDescentOptimizer(0.2).minimize(loss)

# 初始化变量
init = tf.global_variables_initializer()

# 结果存放在布尔型列表中
#tf.argmax(y,1)求标签最大的值是在哪个位置(返回索引),1代表按行
correct_prediction = tf.equal(tf.argmax(y,1),tf.argmax(prediction,1)) #比较两个参数是不是一样的,返回为true或false
# 求准确率
accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32)) # tf.cast把布尔转换为32位浮点型 true--> 1.0 flase:-->0,tf.reduce_mean求平均获得准确率

# 进行训练
with tf.Session() as sess:
  sess.run(init)
  for epoch in range(21): #迭代21个周期,所有的图片训练21次
    for batch in range(n_batch): #一共有多少个批次,执行一个for代表所有的图片训练了一次
      batch_xs,batch_ys = mnist.train.next_batch(batch_size) #每次获得100张图片,下一次运行的时候再获得接下来的100张图片
      sess.run(train_step,feed_dict={x:batch_xs,y:batch_ys})
    acc = sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels})  #测试准确率,用的测试集
    print("iteration"+str(epoch)+",Testing Accuracy"+str(acc)) # 打印当前周期和求得的准确率
output:

在这里插入图片描述

补充

tf.argmax()
Returns the index with the largest value across axes of a tensor.

A=tf.constant([2,20,30,3,6]) # Constant 1-D Tensor
tf.math.argmax(A) # output 2 as index 2 (A[2]) is maximum in tensor A
B=tf.constant([[2,20,30,3,6],[3,11,16,1,8],[14,45,23,5,27]]) # 3行5列
tf.math.argmax(B,0) # [2, 2, 0, 2, 2] # 返回每一列中数字最大的索引
tf.math.argmax(B,1) # [2, 2, 1] # 返回每一行中数字最大的索引
Args: 
输入 :一个tensor
input: A Tensor. 
必须是一下类型的数据:
 float32, float64, int32, uint8, int16, int8, complex64, int64, qint8, quint8, qint32, bfloat16, uint16, complex128, half, uint32, uint64. 
axis: A Tensor. Must be one of the following types: int32, int64. int32 or int64, must be in the range -rank(input), rank(input)). 
Describes which axis of the input Tensor to reduce across. For vectors, use axis = 0. 
输出类型 output_type: 
An optional tf.DType from: tf.int32, tf.int64. Defaults to tf.int64. name: A name for the operation (optional).
返回 
Returns:A Tensor of type output_type.
##使用方法
import tensorflow as tf
a = [1, 10, 26.9, 2.8, 166.32, 62.3]
b = tf.math.argmax(input = a)
c = tf.keras.backend.eval(b)
# c = 4
# here a[4] = 166.32 which is the largest element of a across axis 0

tf.cast()
作用:Casts a tensor to a new type.
2.0版本:

tf.dtypes.cast(
    x,
    dtype,
    name=None
)

#使用例子:
x = tf.constant([1.8, 2.2], dtype=tf.float32) #将float转为 int型
tf.dtypes.cast(x, tf.int32)  # [1, 2], dtype=tf.int32
总结:

可以修改损失函数、epoch、等使得准去率提高。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值