人类并不是每时每刻都从一片空白的大脑开始他们的思考。在你阅读这篇文章时候,你都是基于自己已经拥有的对先前所见词的理解来推断当前词的真实含义。我们不会将所有的东西都全部丢弃,然后用空白的大脑进行思考。传统的神经网络并不能做到这点,所以采用RNN来解决这一问题。RNN 是包含循环的网络,允许信息的持久化。
RNN基本单位:
RNN 可以被看做是同一神经网络的多次赋值,每个神经网络模块会把消息传递给下一个。所以,如果我们将这个循环展开:
链式的特征揭示了 RNN 本质上是与序列和列表相关的。他们是对于这类数据的最自然的神经网络架构。
但是,在间隔不断增大时,RNN 会丧失学习到连接较远信息的能力。LSTM 很好的解决了这个问题,下一章介绍: