TensorFlow中,tf.nn.rnn_cell.BasicRNNCell和tf.nn.rnn_cell.Basic LSTM是循环神经网络的两个重要基础类;tf.nn.dynamic_rnn是用来一次执行多个时间步,tf.nn.rnn_cell.MultiRNNCell用来生成多层RNN网络。详情请见https://blog.csdn.net/starzhou/article/details/77848156。下面是一个用tf.nn.rnn_cell.MultiRNNCell实现的两层的RNN神经网络,用tf.nn.dynamic_rnn来一次执行多个时间步。
import tensorflow as tf;
import numpy as np;
X = tf.random_normal(shape=[3,5,6], dtype=tf.float32)#3为batch的size,5为时间步长,6为每个时间步的尺寸
X = tf.reshape(X, [-1, 5, 6])
rnn_layers =[tf.nn.rnn_cell.BasicRNNCell(size,reuse=True) for size in [128, 256]]#分别为每层RNN的神经元个数
multi_rnn_cell = tf.nn.rnn_cell.MultiRNNCell(rnn_layers)
state = multi_rnn_cell.zero_state(3, tf.float32)
output, state = tf.nn.dynamic_rnn(multi_rnn_cell, X, initial_state=state, time_major=False)
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
print(output.get_shape())
print(sess.run(state))
上述的代码第一次运行可以正常运行,第二次的时候会出错,好像需要让什么设为reuse,不太明白,暂时就分享这些。用的是tf 1.8的版本。