这些时在用tensorFlow中的GRU做一些试验时发现:
假定训练集为10000个点,每个点为2000个数据,那么输入要求为(10000,2000,1)的数据和(10000,)的标签。
如果只有一层GRU直接调用
tf.keras.layers.GRU(512, activation='tanh', recurrent_activation='sigmoid', use_bias=True)
没有问题,但如果想要调用多层GRU。每层都写成以上形式就会报错。
ValueError: Input 0 of layer gru_1 is incompatible with the layer: expected ndim=3, found ndim=2. Full shape received: [None, 512]
看一下GRU的手册
tf.keras.layers.GRU(
units,
activation="tanh",
recurrent_activation="sigmoid",
use_bias=True,
kernel_initializer="glorot_uniform",
recurrent_initializer="orthogonal",
bias_initializer="zeros",
kernel_regularizer=None,
recurrent_regularizer=None,
bias_regularizer=None,
activity_regularizer=