RNN学习笔记

一/为什么需要循环神经网络

普通的神经网络:输入->网络结构->输出 数据都是固定的数据,不是变长。(例如文本)
循环神经网络———序列式问题:
1。一对多问题:图片生成描述,给定一张图片,生成一个描述(文本),文本是不定长的
2。多对一问题:文本分类(文本情感分析),输入不定长
3。多对多问题:机器翻译,非实时翻译。需要写完需要翻译的文本。
视频解说翻译,实时翻译

二/循环神经网络

网络结构
在这里插入图片描述
多了一个自我指向的路径,表达了:输入可能是多个,需要保存一个中间状态,中间状态可以了解之前的情况。
维护一个状态作为下一步的额外输入,每一步使用同样的激活函数和参数,半数共享。
中间状态表示函数
维护的中间状态值表示函数,由上一步的状态和当前的输入做一个拼接。
在这里插入图片描述
在这里插入图片描述
反向传播时,用Tanh输出在-1和1之间容易梯度消失,当序列长的时候。较远的步骤梯度贡献很小。
如果用了其他函数,每一步的梯度会累积放大,会导致梯度爆炸。
损失函数的计算,每一步的损失函数之和。把整个序列分批计算梯度。这些都是基于单层网络。

三/多层网络

底层输出作为高层输入
同层之间依旧递归
增加网络的拟合能力
一般隐层维数递增

四/LSTM

长短期记忆网络
普通的RNN的信息不能长久传播(存在于理论上)
引入选择性机制
选择性输出
选择性输入
选择性遗忘
选择性机制的实现:用门的方式 Sigmoid函数:[0,1]

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值