NLP 3.1 RNN,LSTM,GRU

本文介绍了递归神经网络(RNN)的重要性,包括其在处理上下文关系和不同长度数据的优势。深入讨论了RNN的语言模型、梯度消失与爆炸问题以及解决方案。LSTM和GRU作为RNN的改进版,通过门控机制解决了长期依赖问题,广泛应用于多种NLP任务。双向LSTM进一步增强了模型捕捉上下文的能力。
摘要由CSDN通过智能技术生成

1、为什么需要递归神经网络?

  • RNN可以考虑上下文关系,语序
  • RNN可以减少参数量,减少模型复杂度
  • 可以处理不同时长的数据

2、Recurrent Neural Network——递归神经网络

2.1 构造语言模型

在这里插入图片描述

2.2 对于情感分析只需要在最后时刻将rnn cell的输出接入一个softmax

2.3 RNN formulation

在这里插入图片描述
线性的转换+非线性激活函数

2.4 RNN vs HMM

在hmm中,每一个时刻只有一个状态被激活。RNN每个时刻的每个状态都是一个连续性的随机变量——分布式表示方法。深度学习基本都是分布式的表示方法

在这里插入图片描述

one- hot encoding:

  • sparse
  • 不需要学习
  • 状态转移矩阵会非常大
    distributed representation
  • non-sparse/compact
  • 需要训练学习

3、Recap:语言模型

在这里插入图片描述

4、RNN的语言模型

  • 1、先对每一个word做word embedding

  • 2、输入rnn cell

  • 3、输出每个时刻的output

  • 4、y输出的是给定当前单词,下一个单词出现的概率分布

  • 5、针对一个sentence,损失函数是每个时刻loss的叠加

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值