LSTM:为解决RNN梯度消失和爆炸问题诞生的。
LSTM神经结构
![请添加图片描述](https://img-blog.csdnimg.cn/42164c71054c413a8b90f504a96f0cc0.png
GRU:和LSTM效果差不多,但是好处是参数减少。神经元从4个变成3个,输入变成2个,输出变成1个。
Attention机制:对每个输出加入权重,让有用的信息更加有用。
RNN之LSTM和GRU_Attention机制
最新推荐文章于 2024-05-07 15:12:10 发布