RNN+基本原理+思维导图

为什么会有RNN?

从BP算法,CNN(卷积神经网络)中会发现, 它们的输出都是只考虑前一个输入的影响而不考虑其它时刻输入的影响, 比如简单的猫,狗,手写数字等单个物体的识别具有较好的效果. 但是, 对于一些与时间先后有关的, 比如视频的下一时刻的预测,文档前后文内容的预测等, 这些算法的表现就不尽如人意了.因此, RNN就应运而生了.

RNN

RNN之所以称为循环神经网路,即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出
在这里插入图片描述

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
RNN(Recurrent Neural Network) 是一种递归神经网络,它能够处理序列数据,并具有记忆能力,适用于自然语言处理和时间序列数据的建模等任务。而Attention机制是一种特殊的机制,能够在RNN中关注与当前任务更相关的部分,提升模型性能。 RNN中Attention机制的引入,可以使模型在处理长序列数据时,更加关注与当前任务相关的信息。它通过计算每个输入和输出的注意力权重,将关注点放在对当前输出更有倾向的输入上。这样,就能够在翻译任务中,对于较长的句子主要关注其中最重要的单词,提高翻译质量;或在语音识别任务中,对于长音频序列更注重关键的语音片段,提高识别准确率。 CTC(Connectionist Temporal Classification)是一种用于序列分类的方法,常用于语音识别中。CTC的特点是无需对齐标签和输入,只需要输入和输出序列之间的对应关系。通过将输出序列与输入序列对齐的所有可能对应关系进行求和,最终得到最可能的输出序列。这种方法不仅可以处理单个输入序列与输出序列的对齐问题,还能够应对多对一、多对多等复杂情况。 RNN Attention CTC的结合应用在语音识别任务中。首先,RNN作为基础模型,对输入音频序列进行特征提取和语音信息的建模。其次,Attention机制用于根据当前输出的建议,选择与其最相关的输入部分进行关注。最后,CTC用于将该输出序列的所有对齐与输入的可能对应关系进行求和,得到最可能的输出序列。通过Attention机制的引入,模型可以更加关注与当前输入相关的部分,提高语音识别的准确率。 总结来说,RNN Attention CTC是一种在语音识别中常用的方法,它充分利用了RNN的记忆能力,结合Attention机制进行关注,再通过CTC进行序列分类。这种方法在序列数据处理中具有很好的效果,提高了模型的性能和准确率。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值