RNN:basic RNN,LSTM and GRU

本文介绍了基本的RNN模型及其在处理历史信息上的局限性,接着详细阐述了LSTM的三个门控机制以及其工作原理,并对比了GRU,它是LSTM的简化版,训练更快,需要的数据更少。最后提到了几种常见的激活函数,如ReLU、Sigmoid和tanh。
摘要由CSDN通过智能技术生成

RNN:basic RNN,LSTM and GRU


写在前面:这篇blog没有很多文字,都是图片,截取自我们一个课的ppt。本科的时候看lstm的paper也曾写过一些博客,但是感觉paper看完当时可能记住了,但很难帮助记忆。研究生上了一门kdd的课程,正好老师讲到了rnn,给的这些图和例子,非常浅显易懂。特此编辑一下,也算是知识的传播了。

BASIC RNN

基本的RNN 模型就是在神经网络上加个loop.
在这里插入图片描述

缺点也很明显,模型也太简单了。rnn,就是为了用上history information,但是只用一个简单的激活函数去用到了上一个timestamp的历史值,想得到好的训练结果比较难。(以下摘自kdd课件)
在这里插入图片描述

LSTM

存在3个特征门控制:
forget feature:用来决策‘忘掉’一些变量信息。
input feature:用来决策‘选择’输入变量的部分信息作为真正的输入,决策输入变量的权重。
output feature: 用来决策‘选择’输出变量的部分信息作为真正的输出,决策输出变量的权重。
一共包括了六个门gate:
forget gate:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值