学习双向循环神经网络的时候发现,很多实现是基于1.x版本的。这里面的一个关键是在SimpleRNN和Dense之间要加一层Flatten,否则会报错。
循环网络使用的激活函数应该是饱和性的比较好。默认是tanh,使用relu反而效果不佳。
import tensorflow as tf
mnist = tf.keras.datasets.mnist
(x_train, y_train), (x_test, y_test) = mnist.load_data()
x_train
学习双向循环神经网络的时候发现,很多实现是基于1.x版本的。这里面的一个关键是在SimpleRNN和Dense之间要加一层Flatten,否则会报错。
循环网络使用的激活函数应该是饱和性的比较好。默认是tanh,使用relu反而效果不佳。
import tensorflow as tf
mnist = tf.keras.datasets.mnist
(x_train, y_train), (x_test, y_test) = mnist.load_data()
x_train