此话为错:深层循环网络能有效抽取更高层更抽象的信息,层数越深效果越好。
层数越深效果未必越好,层数的加深会导致模型的收敛变得困难
此话为对:第0个循环单元的记忆细胞和循环单元的值不需要初始化。
每个循环单元中的记忆细胞和循环单元的值为LSTM模型中的隐状态,而非参数,因此不需要初始化。
此话为错:深层循环网络能有效抽取更高层更抽象的信息,层数越深效果越好。
层数越深效果未必越好,层数的加深会导致模型的收敛变得困难
此话为对:第0个循环单元的记忆细胞和循环单元的值不需要初始化。
每个循环单元中的记忆细胞和循环单元的值为LSTM模型中的隐状态,而非参数,因此不需要初始化。