RNN与LSTM两个小伙伴的学习笔记

这段时间一直在看NER相关的工作,终于把RNN以及LSTM的基本结构整理清楚了,于是接下来码一码,以便三天后又忘了找不到出处。其实大部分内容也是搬运来的。
在这里插入图片描述

RNN

首先介绍RNN,RNN全称循环神经网络。

在传统的深度神经网络模型中,我们的输入信息是没有顺序的。NLP领域中,我们输入单词经常使用embedding,将词汇映射为词向量,然后输入到神经网络。但是这种输入方式会有一些问题,比如,"我 爱 你"和"你 爱 我"在传统的神经网络中不能很好的识别。

在这种情况下,有人提出了将n-gram信息加入到输入层,比如fasttext,在一定程度上解决了单词间的顺序问题,但是这种方法也有一些弊端,就是我们无法捕获长句子的单词依赖,比如一个句子n个单词,那么如果想要捕获全部的单词顺序信息,需要1+2+3…+n,所以这种方式会让embedding_lookup变得非常大。

RNN就是专门解决这种无法捕获长距离的句子信息的模型。

简单来说,RNN侧重了时序,可以捕捉到句子之前的信息。

RNN模型

RNN的基本模型很简单。直接上图。一般来说分为输入层,隐藏层和输出层三个部分
在这里插入图片描述

xi表示在第i步输入的单词,

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值