循环神经网络(RNN)

本文详细探讨了序列模型在RNN中的应用,包括RNN结构、语言模型训练方法、GRU和LSTM对梯度消失的处理,以及双向RNN和深层RNN的运用。重点介绍了如何利用大文本语料库训练语言模型并解决RNN中的问题。
摘要由CSDN通过智能技术生成

目录

1.序列模型的应用

2.循环神经网络(Recurrent Neural Network, RNN)

 

 a^{<t>}=g(W_{aa}a^{<t>}+W_{ax}x^{<t>}+b_{a})

 \widehat{y}^{<t>}=g(W_{ya}a^{<t>}+b_{y})

RNN的输入序列和输出序列的长度不一定一致。RNN也有不同的架构。

 

3.使用RNN构建一个语言模型(language model)

对于一个语言识别任务,对于一个输入的文本序列,语言模型能够给出对应的概率。 

如何训练这样一个语言模型?

训练集:一个大的文本语料库(text corpus)。
例如,对于这样一个句子:Cats average 15 hours of sleep a day. 模型这样训练:

损失函数

 为了解决RNN的梯度消失(vanishing gradient)问题,可以使用GRU(Gate Recurrent Unit门控循环单元)或者LSTM(long short term memory units 长短期记忆网络)

4.双向RNN(bidirectional RNN)

该模型可以让你在序列的某点处,不仅可以获取之前的信息,还可以获取未来的信息。
例如,在“He said, Teddy Roosevelt was a great predient!”这段文本中,判断 “Teddy” 是不是人名,不仅要考虑之前的信息,还要考虑之后的信息。

 

5.深层RNN

当网络需要学习更为复杂的函数时,可以把RNN进行堆叠,构建更深的模型。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

漂流の少年

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值