参考链接:
https://medium.com/explore-artificial-intelligence/an-introduction-to-recurrent-neural-networks-72c9
此输出向量的内容不仅受到您刚刚输入的输入的影响,而且还受到您过去输入的输入的整个历史的影响。
该RNN的参数是三个矩阵:
W_hh:基于先前隐藏状态的矩阵
W_xh:基于当前输入的矩阵
W_hy:基于隐藏状态和输出之间的矩阵
隐藏状态self.h用零向量初始化。所述np.tanh(双曲正切)功能实现非线性该南瓜的激活到范围[-1,1]。
例如,我们看到,在RNN看到字符“ h”的第一步中,它给下一个字母“ h”分配了置信度1.0,对字母“ e”分配了2.2置信度,对字母“ e”分配了-3.0,对4.1分配了置信度。到“ o”。由于在我们的训练数据中(字符串“ hello”),下一个正确的字符是“ e”,因此我