补充:return_sequence,return_state都是针对一个时间切片(步长)内的h和c状态,而stateful是针对不同的batch之间的。多层LSTM需要设置return_sequence = True,后面再设置return_sequence=False.
最近在学习使用keras搭建LSTM的时候,遇到了一些不明白的地方。有些搞懂了,有些还没有搞懂。现在记下来,因为很快就会忘记!-_-!。
具体的LSTM的原理,我这里不赘述了。给一些很好的参考链接。
LSTM公认圣经,中文翻译版
1. 输入数据维度
我们知道RNN、LSTM适应于时序数据。我们需要按照构造一定的输入数据形式sequence。
实际上来讲,就相当于一个滑动窗口,不断的向前滑动。一个窗口就成了一个样本batch。
后续有时间,我画个图!
在keras中,RNN、LSTM的输入分为两种:
1)stateless,无状态设置。
输入为inpu