RNN与LSTM

本文介绍了递归神经网络(RNN)及其利用前一步信息的特点,探讨了RNN的梯度消失问题。接着,文章转向长短期记忆网络(LSTM),解释了LSTM如何通过三个门机制解决RNN的问题。最后,提到了模型微调(fine tune)的概念,即在预训练模型基础上进行小规模调整以适应特定任务。
摘要由CSDN通过智能技术生成

RNN

递归神经网络(RNN),该网络最大的特点就是利用了前一步的信息。如下图:
在这里插入图片描述
RNN有一个比价特别的地方,那就是S,表示记忆单元。
在这里插入图片描述
其反向传播的过程需要将当前步的一直到最后的梯度都求出来。这个也是它的缺点,为什么呢?主要就是因为距离当前太远的地方,可能与当前关系不大,我们应该忽略他,同时这样也容易造成梯度消失。
在这里插入图片描述

LSTM

针对RNN存在的问题,在LSTM上可以得到很好的解决。LSTM使用三个门,分别 是选择忘记的门,新的需要保留的门,以及需要输出的门。具体如下
在这里插入图片描述

  1. 选择忘记的门 Ct-1是上一阶段的控制参数 ht-1是上阶段的输出。
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值