一,为什么需要LSTM(长短期记忆网络)
- 普通的RNN不能长久传播
- 引入选择性机制
- 选择性输出
- 选择性输入
- 选择性遗忘
- 选择性 - > 门
- Sigmoid函数:[0,1]
- Sigmoid函数:[0,1]
- 门限机制
- 向量A -> sigmoid -> [0.1,0.9,0.4,0,0.6]
- 向量B -> sigmoid -> [13.8,14,-7,-4,30]
- A为门限,B为信息
- A* B = [0.138,12.6,-2.8,0,18
二,什么是LSTM(长短期记忆网络)
符号说明:
1,模型结构OVERVIEW
2,Cell的状态传递
3,遗忘门
新的一句有新的主语,就应该把之前的主语忘掉
4,传入门
是不是要把主语的性别信息添加进来
5,输出门
动词该用单数形式还是复数形式
6,当前状态
- 经过遗忘门的上一状态
- 经过传入们的输入状态