循环神经网络(RNN)基础案例

本文采用一个较为简单的例子,来介绍循环神经网络。 文中的代码按顺序复制下来可以运行,并得出结果。

关于循环神经网络的原理,后续会专门再介绍,详细关注我的博客。对于大多数程序员来说,通过程序来理解,可能更为直观。

例子: 输入3行4列的矩阵数据,如

         [1,  2,  5,  6],
         [5,  7,  7,  8],
         [3,  4,  5,  7]

          输出: 

          [1,   3,   7,  11], 
          [5, 12, 14,  15],
          [3,   7,   9,  12]     

    分析规律: 输出第1列为输入的第1列, 输出第2列为输入的第1列和第2列之和, 输出的第3列为输入的第2列和第3列之和,依次类推。那么如何通过神经网络来训练这个模型呢? 可以看到里面有LSTM(长短文本分析)的特征,所以,我们很自然的想到用循环神经网络来训练。因为数据量不多,这个地方用一层网络就可以了。 下面请看代码

首先导入依赖包:

import tensorflow as tf
from tensorflow.contrib import rnn
tf.reset_default_graph()

创建一个模型类, 这个类中包含RNN训练参数初始化,损失函数及优化器的构建,模型生成方法,模型训练方法,以及测试方法

class SeriesPredictor:
    def __init__(self, input_dim, seq_size, hidden_dim=10):
        # 网络参数
        self.input_dim = input_dim  # 输入维度
        self.seq_size = seq_size # 时序长度
        self.hidden_dim = hidden_dim  # 隐藏层维度

        # 权重参数W与输入X及标签Y
        self.W_out = tf.Variable(tf.random_normal([hidden_dim, 1]), name="W_out")
        self.b_out = tf.Variable(tf.random_normal([1]), name='b_out')
        self.x = tf.placeholder(tf.float32, [None, seq_size, input_dim])
        self.y = tf.placeholder(tf.float32, [None, seq_size])

        # 均方误差求损失值,并使用梯度下降
        self.cost = tf.reduce_mean(tf.square(self.model() - self.y))
        self.train_op = tf.train.AdamOptimizer().minimize(self.cost)

        self.saver = tf.train.Saver()

    def model(self):
        '''
        :param x: inpouts of size [T, batch_size, input_size]
        :param W: matrix of fully-connected output layer weights
        :param b: vector of fully-connected output layer biases
        '''
        # BasicLSTMCell基本的RNN类, 建立hidden_dim个CELL
        cell = rnn.BasicLSTMCell(self.hidden_dim)
        # dynamic_rnn 动态RNN, cell生成好的cell类对象, self.x是一个张量, 一般是三维张量[Batch_size, max_time(序列时间X0-Xt), X具体输入]
        outputs, states = tf.nn.dynamic_rnn(cell, self.x, dtype=tf.float32)  # (?, seq_size, hidden_dim)
        num_examples = tf.shape(self.x)[0]
        tf_expand = tf.expand_dims(self.W_out, 0)
        tf_tile = tf.tile(tf_expand, [num_examples, 1, 1])  # 将第一维扩大为num_examples维  (?, hidden_dim, 1)
        out = tf.matmul(outputs, tf_tile) + self.b_out  # (?, seq_size, 1)
        print(out)
        out = tf.squeeze(out)
        return out

    def train(self, train_x, train_y):
        with tf.Session() as sess:
            tf.get_variable_scope().reuse_variables()  # 变量可重复利用
            sess.run(tf.global_variables_initializer())
            for i in range(1000):
                _, mse = sess.run([self.train_op, self.cost], feed_dict={self.x: train_x, self.y: train_y})
                if i % 100 == 0:
                    print(i, mse)
            save_path = self.saver.save(sess, './model')
            print('Model saved to {}'.format(save_path))

    def test(self, test_x):
        with tf.Session() as sess:
            tf.get_variable_scope().reuse_variables()
            self.saver.restore(sess, './model')
            output = sess.run(self.model(), feed_dict={self.x: test_x})
            return output

最后写一个main函数,用训练数据训练网络,并用测试数据测试

if __name__ == '__main__':
    predictor = SeriesPredictor(input_dim=1, seq_size=4, hidden_dim=10)
    train_x = [[[1], [2], [5], [6]],
               [[5], [7], [7], [8]],
               [[3], [4], [5], [7]]]

    train_y = [[1, 3, 7, 11],
               [5, 12, 14, 15],
               [3, 7, 9, 12]]

    predictor.train(train_x, train_y)

    test_x = [[[1], [2], [3], [4]],
              [[4], [5], [6], [7]]]
    test_y = [[[1], [3], [5], [7]],
              [[4], [9], [11], [13]]]
    pred_y = predictor.test(test_x)

    print("\n开始测试!\n")

    for i, x in enumerate(test_x):
        print("当前输入{}".format(x))
        print("应该输出{}".format(test_y[i]))
        print("训练模型的输出{}".format(pred_y[i]))

查看运行结果:

可以看到模型预测的结果与应该输入的结果是比较接近的。 在实际运用中,经常会调整一些参数,在不导致过拟合和欠拟合的条件下,使得网络模型更精确,比如加减神经元、调整网络层数、调整训练次数等。

  • 1
    点赞
  • 37
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
循环神经网络(RNN)是一种能够处理序列数据的人工神经网络。相比于传统神经网络而言,RNN具有记忆性,能够利用之前的计算结果来影响后续的计算。这一特性为RNN在语音识别、自然语言处理、机器翻译等领域的应用提供了更多的可能性。 MATLAB是一种强大的工具,特别适合用于计算机科学和工程的数值计算、数据分析和可视化。在RNN的应用中,MATLAB提供了丰富的工具和函数库,使得对RNN的相关研究更加方便和高效。 针对循环神经网络(RNN)与MATLAB程序详解的视频内容,首先介绍了RNN如何应用于序列数据处理,并详细讲解了RNN的基本结构、前向传播和反向传播算法原理。其次,视频详细讲解了如何在MATLAB中搭建RNN,并介绍了相关工具和函数库的使用方法和技巧,包括如何定义网络结构,如何初始化权重,如何设置损失函数,如何进行训练和预测等方面。最后,视频还提供了一些实际应用案例,具体展示了RNN在文本分类、图像识别和语音合成等领域的应用实践,让观众更加深入地了解该技术的实用性和潜力。 总之,循环神经网络(RNN)与MATLAB程序详解视频内容详尽,既提供了理论知识的讲解,也提供了实践技巧和应用案例,对于有兴趣了解和应用RNN的计算机科学和工程领域从业者和学者来说,具有较高的参考价值和启发作用。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值