July深度学习之RNN循环神经网络

本文介绍了RNN循环神经网络的基础知识,包括引入RNN的原因、记忆机制、不同类型的RNN如双向RNN和深层双向RNN,以及RNN与BPTT算法的关系。还探讨了RNN的长时依赖问题,并引入LSTM解决这一问题的重要性。
摘要由CSDN通过智能技术生成

RNN循环神经网络

一、简介

首先,为什么有BP神经网络和CNN,还要提出RNN?
因为传统的神经网络,包括CNN,它的输入和输出是互相独立的。但有些时候,后续的输出和前面的内容是相关的。比如,我是中国人,我的母语是_.

所有,RNN引出记忆的概念,循环神经网络的“循环”二字来源于其每个元素都执行相同的任务。在某时刻,依赖于当前输入和“记忆”。

image

  • 隐状态St可以看成记忆体,捕捉了之前节点上的信息。

  • 输出Ot由当前时间和之前的记忆共同得到。

  • 不同于CNN,这里的RNN其实整个神经网络都共享一组参数(U,V,W),极大地减少了需要训练和预估的参数量。

  • 图中的有些Ot是不需要的,只需要最后的output就行了,比如文本情感分析。

二、不同类型的RNN

  1. 双向Rnn

    • 有些情况下,当前的输出不仅仅依赖于之前的序列元素,还可以依赖于之后的元素。
    • 比如从一段话里踢到部分词,让你补全。
    • 直观理解:双向RNN叠加。

image

2.深层双向RNN

和双向RNN的区别是每一步/每

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值