RNN(一) overview

想学习神经网络,由于最近有语义理解和断句的工作需求,正好以RNN为切入点,开始神经网络方面的学习。

一些RNN学习的资源:

https://en.wikipedia.org/wiki/Recurrent_neural_network

http://www.zhihu.com/question/29411132

神经网络基础

Neural Networks

神经网络中的神经元结构如上图

Feedforward Neural Networks

所有节点之间不存在环,所以所有的节点可以归类到某一层,一层的输出基于上一层的输出,输入X作为最底层的输入。

前馈网络的局限性在于需要保证输入数据的独立性,对于视频、音乐或者句子这些在时间维度相关的输入数据来说,应用前馈网络就有很大的局限性。

RNN

时刻t隐层的输入不仅跟时刻t输入x(t)有关,还跟t-1时刻的隐层h(t-1)有关。所以最后将导致,时刻t-1的输入x(t-1)将会影响t时刻的输出y(t)。

Training

由于RNN在时间维度的高依赖性,导致RNN的训练相比于DNN更为复杂。主要的两大难点在于vanishing和exploding。

Truncated backpropagationthrough time (TBPTT)是一种有效的训练方法。

Modern RNNs

两个最成功的RNN结构是LSTM和BRNN。

LSTM




Input node:g,跟上一时刻的隐层和当前时刻的输入x有关,激活函数是tanh。

Input gate:i,跟上一时刻的隐层和当前时刻的输入x有关

Internal state:s,有一条自旋的边称为constant error carousel,保证误差随着时间的传播没有vanishing

Forget gate:f

Output gate:o

前向使用input gate和output gate控制是否通过internal state,后向使用constant error carousel避免误差的vanishing和exploding。

BRNN

Bidirectional RecurrentNeural Networks包含两个隐层,第一个隐层跟过去有关,第二个隐层跟未来有关。

BRNN的局限性在于其需要未来的信息,不适合应用线上 环境(因为没有未来的信息),但可以用在自然语言处理方面,比如文本标注问题,跟上下文都有关系。

 

 

参考文献

A Critical Review of Recurrent Neural Networksfor Sequence Learning


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值