NLP-RNN,LSTM基础摘要

本文深入解析简单RNN与LSTM的区别,重点在于LSTM的传输带和门控机制,以防止梯度消失。通过实例展示了如何使用Keras构建一个基于LSTM的电影评论分类器,并探讨了模型参数量的计算。适合有基础的学习者进行复习。
摘要由CSDN通过智能技术生成

本文适合有一定基础的同学翻阅,内容比较精炼,主要是用于复习。新手推荐:https://www.youtube.com/user/wsszju/videos

最简单的RNN

结构还是很简单的,左边是真实的RNN模型,右边是根据时序展开后的,便于理解,A是tanh函数:
在这里插入图片描述
在这里插入图片描述

simple RNN 与LSTM的对比:

在这里插入图片描述

LSTM最重要的设计是传输带,将过去的信息直接传入下一时刻,以避免梯度消失。
同时含有很多Gate:Forget Gate,Input Gate,Output Gate。

下图中,四个红框分别是Forget Gate,Input Gate,New values, Output Gate,其中New Values是tanh函数激活,其他为Sigmoid函数激活,所以一共有四个参数矩阵:

在这里插入图片描述
下面是使用keras实现一个简单的电影评论分类器,其中的LSTM也可换作RNN。设置LSTM只输出最后一个状态向量H,所以return_sequences=False,

在这里插入图片描述
关于参数量,四组参数,每组参数量相同,以New values为例,其w的size=shape(h) * [shape(h) + shape(x)] + shape(bias), 该例子中则是32 * [32+32]+32 = 2080:
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值