循环神经网络(RNN)的基本框架(简单理解版)

一:前言

前面我们介绍了传统神经网络(NN)和卷积神经网络(CNN)(读者想要了解的话请看文章最下面链接)接下来我们要大体介绍的是循环神经网络(Recurrent Neural Networks)(RNN)。

二:RNN的优势

如下图所示RNN的优势在于它能够利用前面一时刻的embeddings,比如在t_1时刻我的输入是x_1过一层隐藏层得到embeddingsh_1,在t_2时刻的输入是x_2它可以利用原来的输出h_1一起输出h_2就是因为有这样的特性所以我们说CNN通常用于计算机视觉领域(CV),RNN通常用于自然语言处理(NLP)。

三:RNN的直观体现

如下图所示:

前面我们举的例子是循环了一次后的结果,在这张图当中A表示hidden layer,x表示每一个时间段的输入,h表示每次输入得到的输出,这张图中还有一点需要注意的是在最后时刻之前的输出(如图中的h_t之前的所有h)我们只看做是一个中间变量,在最后面是不考虑它单独的作用,因为h_t结合了之前所有的embeddings。

四:长短期记忆网络(Long Short-Term Memory)(LSTM)

但我们会发现一个问题,就是RNN它考虑了前面所有的情况,但我们会发现,前面有些东西是不重要的对于我们的结果来说,我们有时候只想要保留一些重要的信息,而忽略一些次要信息,所以又提出了LSTM模型,如下图中对比:

实际上LSTM模型比起RNN就多操作了一个遗忘的操作,如下图中的C就是控制遗忘的参数,它决定了什么信息会被保留什么信息会被遗忘.

具体的c的计算如下图公式:

f_t 和(t-1)层的 c_t   共同决定计算所丢弃的信息

 \sigma:是一种激活函数,如sigmoid()

W_f :为这一层的权重参数矩阵

h_t:第t时刻embeddings后的输出矩阵

x_t : 第t时刻输入矩阵

b_f:是一个偏置

五:参考链接

 1:传统神经网络(NN):

神经网络整体架构及细节(详细简单)_小林学编程的博客-CSDN博客

2:卷积神经网络(CNN):

卷积神经网络(CNN)的整体框架及细节(详细简单)_小林学编程的博客-CSDN博客

3:RNN部分:

不愧是计算机博士唐宇迪居然半天教会了我大学4年没学会的深度学习经典算法解析入门到实战课程,看不懂你打我!!!_哔哩哔哩_bilibili


 

  • 4
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小林学编程

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值