LSTM核心解读

    LSTM的架构与RNN相比没有根本上的不同,只是它的内部使用了一个不同的函数来计算隐藏状态。 LSTM中的记忆单元称为cells,可以将其看做以先前状态h_(t-1)和当前输入x_t作为输入的黑盒子。 在LSTM内部,这些cells决定了要保留或者擦除哪些记忆。 然后把先前的状态,当前的记忆和输入组合在一起。 事实证明,这种类型的单元在捕获长期依赖关系上非常有效。

LSTM计算公式:

包含两个memory cells的形式(2个时间步长的展开):

 

    LSTM里3个门都使用的sigmoid,因为它的输出必须在[0,1]之间(打开或关闭),所以relu不行。但是输入和输出都用的是tanh。

 

Reference:

1.A Critical Review of Recurrent Neural Networks for Sequence Learning

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值