Tensorflow实现RNN(LSTM)手写数字识别

import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data

# 载入数据
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)

# 输入图片是28
n_input = 28
max_time = 28
lstm_size = 100  # 隐藏单元
n_class = 10  # 10个分类
batch_size = 50   # 每次50个样本
n_batch_size = mnist.train.num_examples // batch_size    # 计算一共有多少批次


# 这里None表示第一个维度可以是任意长度
# 创建占位符
x = tf.placeholder(tf.float32,[None, 28*28])
# 正确的标签
y = tf.placeholder(tf.float32,[None, 10])

# 初始化权重 ,stddev为标准差
weight = tf.Variable(tf.truncated_normal([lstm_size, n_class], stddev=0.1))
# 初始化偏置层
biases = tf.Variable(tf.constant(0.1, shape=[n_class]))


# 定义RNN网络
def RNN(X, weights, biases):
    #  原始数据为[batch_size,28*28]
    # input = [batch_size, max_time, n_input]
    input = tf.reshape(X,[-1, max_time, n_input ])
    # 定义LSTM的基本单元
    lstm_cell = tf.contrib.rnn.BasicLSTMCell(lstm_size)
    # final_state[0] 是cell state
    # final_state[1] 是hidden stat
    outputs, final_state = tf.nn.dynamic_rnn(lstm_cell, input, dtype=tf.float32)
    results = tf.nn.softmax(tf.matmul(final_state[1],weights)+biases)
    return results


# 计算RNN的返回结果
prediction = RNN(x, weight, biases)
# 损失函数
loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=prediction, labels=y))
# 使用AdamOptimizer进行优化
train_step = tf.train.AdamOptimizer(1e-4).minimize(loss)
# 将结果存下来
correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(prediction, 1))
# 计算正确率
accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
# 初始化
init = tf.global_variables_initializer()


with tf.Session() as sess:
    sess.run(init)
    for epoch in range(6):
        for batch in range(n_batch_size):
            # 取出下一批次数据
            batch_xs,batch_ys = mnist.train.next_batch(batch_size)
            sess.run(train_step, feed_dict={x: batch_xs,y: batch_ys})
            if(batch%100==0):
                print(str(batch)+"/" + str(n_batch_size))
        acc = sess.run(accuracy, feed_dict={x: mnist.test.images, y: mnist.test.labels})
        print("Iter" + str(epoch) + " ,Testing Accuracy = " + str(acc))


手写体数字识别是一个经典的图像识别问题,可以使用循环神经网络(RNN)进行解决。在本文中,我们将使用Python和Tensorflow实现一个RNN模型,用于识别手写数字。 首先,我们需要准备手写数字数据集。我们可以使用MNIST数据集,这是一个常用的手写数字数据集,包含了60000张训练图片和10000张测试图片。我们可以使用Tensorflow中的keras库来加载数据集。 ```python from tensorflow import keras # 加载数据集 (x_train, y_train), (x_test, y_test) = keras.datasets.mnist.load_data() # 将图像数据归一化到[0, 1] x_train = x_train.astype('float32') / 255. x_test = x_test.astype('float32') / 255. # 将标签转换为one-hot编码 num_classes = 10 y_train = keras.utils.to_categorical(y_train, num_classes) y_test = keras.utils.to_categorical(y_test, num_classes) ``` 接下来,我们需要将图像数据转换为序列数据,以便输入到RNN模型中。我们可以将每个图像的行作为一个序列,每个序列中的元素是该行的像素。 ```python # 将图像数据转换为序列数据 seq_length = x_train.shape[1] # 图像的行数 input_dim = x_train.shape[2] # 每行的像素数 x_train_seq = x_train.reshape((x_train.shape[0], seq_length, input_dim)) x_test_seq = x_test.reshape((x_test.shape[0], seq_length, input_dim)) ``` 接下来,我们可以构建RNN模型。在这里,我们使用一个简单的LSTM网络,该网络将每个序列中的所有行作为输入,并将最后一个LSTM单元的输出传递给一个全连接层进行分类。 ```python from tensorflow.keras.models import Sequential from tensorflow.keras.layers import LSTM, Dense # 构建RNN模型 model = Sequential() model.add(LSTM(128, input_shape=(seq_length, input_dim))) model.add(Dense(num_classes, activation='softmax')) model.summary() ``` 我们可以使用Adam优化器和交叉熵损失函数来训练模型。 ```python # 编译模型 model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy']) # 训练模型 model.fit(x_train_seq, y_train, epochs=10, batch_size=128, validation_data=(x_test_seq, y_test)) ``` 在训练完成后,我们可以使用测试数据集来评估模型的性能。 ```python # 在测试数据集上评估模型性能 score, acc = model.evaluate(x_test_seq, y_test, batch_size=128) print('Test score:', score) print('Test accuracy:', acc) ``` 完整的代码如下: ```python from tensorflow import keras from tensorflow.keras.models import Sequential from tensorflow.keras.layers import LSTM, Dense # 加载数据集 (x_train, y_train), (x_test, y_test) = keras.datasets.mnist.load_data() # 将图像数据归一化到[0, 1] x_train = x_train.astype('float32') / 255. x_test = x_test.astype('float32') / 255. # 将标签转换为one-hot编码 num_classes = 10 y_train = keras.utils.to_categorical(y_train, num_classes) y_test = keras.utils.to_categorical(y_test, num_classes) # 将图像数据转换为序列数据 seq_length = x_train.shape[1] # 图像的行数 input_dim = x_train.shape[2] # 每行的像素数 x_train_seq = x_train.reshape((x_train.shape[0], seq_length, input_dim)) x_test_seq = x_test.reshape((x_test.shape[0], seq_length, input_dim)) # 构建RNN模型 model = Sequential() model.add(LSTM(128, input_shape=(seq_length, input_dim))) model.add(Dense(num_classes, activation='softmax')) model.summary() # 编译模型 model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy']) # 训练模型 model.fit(x_train_seq, y_train, epochs=10, batch_size=128, validation_data=(x_test_seq, y_test)) # 在测试数据集上评估模型性能 score, acc = model.evaluate(x_test_seq, y_test, batch_size=128) print('Test score:', score) print('Test accuracy:', acc) ``` 通过运行上面的代码,我们可以得到一个简单的RNN模型,用于手写数字识别
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值