神经网络与深度学习(五)

6.循环神经网络

6.1给神经网络增加记忆能力

在这里插入图片描述
前馈神经网络无法处理可变大小的输入,因此前馈神经网络限制了很多应用场景,比如处理长短不一的时序数据
前馈神经网络 每次输入都独立
在这里插入图片描述

延时函数z
得到延时单元再影响输出

在这里插入图片描述
自回归模型:和输入的y有关系
非线性自回归模型:不仅和时间变量y有关,还和外部输入x有关

另一种:循环神经网络

6.2循环神经网络

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

6.3应用到机器学习

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

6.4参数学习与长程依赖问题

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

γ大于1或小于1都会引起长程依赖问题
>1:当t-k趋于无限时,梯度爆炸
<1:当t-k趋于无限时,梯度消失

6.5如何解决长程依赖问题

在这里插入图片描述
在这里插入图片描述

6.6GRU与LSTM

在这里插入图片描述
GRU

Zt属于0到1上的一维向量
在这里插入图片描述
先算rt,Zt和ht,再根据图进行运算得到从ht-1到ht的转换

LSTM
在这里插入图片描述
在这里插入图片描述

6.7深层循环神经网络

在这里插入图片描述
在这里插入图片描述
双向神经网络:语音识别、机器翻译等等
在这里插入图片描述

6.8循环网络应用

在这里插入图片描述

在这里插入图片描述
输入x1,得到y1,y1再作为输入x2,依次往下

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

6.9扩展到图结构

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

u:全局变量
vi:点
ek:边
在这里插入图片描述
更新
在这里插入图片描述
m(v)t 表示t时刻节点v需要更新的信息message(包括邻接节点、全局变量和邻接边)
m(v)t再和t-1时刻的h组合得到非线性函数表示为t时刻的h
然后不断更新

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值