理解LSTM

LSTM是一种特殊循环神经网络,用于处理序列数据和预测任务,通过门结构解决了RNN的梯度消失问题,允许长期依赖的保留。LSTM包含遗忘门、输入门和输出门,控制信息的流动,从而学习和保留关键信息,遗忘不相关数据。在语音识别等场景中得到应用。
摘要由CSDN通过智能技术生成

  在ASR中近期用到了一种特殊的循环神经网络(RNN):长短期记忆网络(Long short-term memory,LSTM).RNN适用于处理序列数据和预测任务,在进行反向传播的时候,RNN有可能会出现梯度消失,而梯度在模型训练过程中是来更新神经网络权重值的,所以随着时间推移梯度在传播时会下降,如果梯度值变得非常小训练的模型就不会继续学习,会使得其无法记住在较长序列中学习到的内容,也就是说它的记忆是短期的针对上述会受到的短期记忆的影响,提出了LSTM的解决方案,通过引入门结构来减弱短期记忆影响的演化变体,其中门结构可用来调节流经序列链的信息流。

   这些门结构可以学习序列中哪些数据是要保留的重要信息,哪些是要删除的,它可以沿着长链序列传递相关信息来执行预测。通过一个示例可以更形象的解释一下LSTM,例如在网上购买物品时,会先看一下评论中对商品的评价,来判断是否去买这个商品。在此过程中大脑会下意识地记住一些重要的关键词,隔两天如果有人问你看到的评论内容,你可能不会一字不漏地记起来,而是想到了一些主要观点,而那些次要内容会自然的从记忆中逐渐消失,对于你记住的这些词可以用来判定这个物品的好坏,这基本上就是LSTM的作用了,即可以学习只保留相关信息来进行预测,并忘记不相关的数据。那么LSTM是如何实现这一点的呢,可以先学习一下RNN的工作原理。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值