RNN变体之dropout

本文探讨了RNN中dropout的不同变体,包括常规dropout、RNN dropout、recurrent dropout、垂直连接的dropout以及基于变分推理的dropout和Zoneout。这些方法通过在不同层面和时间步上应用dropout,旨在解决RNN的长期依赖问题和过拟合,以提高模型的泛化能力。
摘要由CSDN通过智能技术生成

问题

RNN在迭代运用状态转换操作“输入到隐状态”实现任意长序列的定长表示时,会遭遇到“对隐状态扰动过于敏感”的困境。


dropout

dropout的数学形式化:

  • y=f(Wd(x)) , 其中 d(x)={ maskx, if train phaseing(1p)x,otherwise
    p 为dropout率,mask为以1-p为概率的贝努力分布生成的二值向量

rnn dropout

改变传统做法“在每个时间步采用不同的mask对隐节点进行屏蔽”,提出新的策略(如下图所示),其特点是:1)generates the dropout mask only at the beginning of each training sequence and fixes it through the sequence;2)dropping both the non-recurrent and recurrent connections。
这里写图片描述
Moon T, Choi H, Lee H, et al. RNNDROP: A novel dropout for RNNS in ASR[C]// Automatic Speech Recognition and Understanding. IEEE, 2016:65-70.

recurrent dropout

  • 思想:通过dropout LSTM/GRU中的input或update门以prevents the loss of long-term memories built up in the states/cells 。

简单RNN及其dropout:
RNN: h

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值