深度学习面试题

序列模型

RNN

当前节点的隐藏状态 与 当前输入 和 上一节点的隐藏状态有关。

当前节点的输出 是 隐藏状态 的转换。

总结:

存在梯度消失问题。


LSTM

通过门控状态来控制传输状态,处理序列数据,解决长期依赖和反向传播中的梯度问题。

(左)LSTM输入输出结构  (右) LSTM内部结构


 LSTM输入输出结构:

通过上一个节点的隐藏状态 h^{t-1} 和当前节点的输入 x^{t} 拼接训练得到四个状态。

 其中,z^f ,z^i ,z^o 是由拼接向量乘以权重矩阵之后,再通过一个 sigmoid 激活函数转换成0到1之间的数值,来作为一种门控状态。而  z 则是将结果通过一个  激活函数将转换成-1到1之间的值。

 LSTM内部结构:

① 遗忘阶段。对上一个节点传进来的细胞单元 c^{t-1} 进行选择性遗忘。通过计算得到的 z^f (f表示forget)作为遗忘门控。

② 选择记忆阶段。对当前输入 z 有选择性地进行“记忆”。通过计算得到的 z^i (i表示input)作为选择记忆门控。

将上面两步得到的结果相加,即可得到传输给下一个状态的 c^t 。

③ 输出阶段。当前隐藏状态的输出。通过计算得到的 z^o (o表示output)作为输出门控,还对上一阶段得到的 c^t 进行了放缩 (tanh函数)。

当前节点的输出 y^t 由 隐藏状态 h^t 变化得到。

总结:

参数变多,也使得训练难度加大了很多

人人都能看懂的LSTM - 知乎这是在看了台大李宏毅教授的深度学习视频之后的一点总结和感想。看完介绍的第一部分RNN尤其LSTM的介绍之后,整个人醍醐灌顶。本篇博客就是对视频的一些记录加上了一些个人的思考。0. 从RNN说起循环神经网络(Recur…https://zhuanlan.zhihu.com/p/32085405


GRU

处理序列数据,解决长期依赖和反向传播中的梯度问题。

(左)GRU输入输出结构  (右) GRU内部结构

GRU输入输出结构:

输入输出结构与普通的RNN是一样的。

输入为 当前的输入 x^t 和上一个节点的隐藏状态 h^{t-1},输出为当前隐藏节点的输出 y^t 和传递给下一个节点的隐藏状态 h^t 。

GRU内部结构:

①通过上一个节点的隐藏状态 h^{t-1} 和当前节点的输入 x^{t} 拼接 获取两个门控状态。

r 重置门(reset gate),z 更新门(update gate)。

② 选择记忆阶段:首先使用重置门控来得到“重置”之后的数据 h^{t-1'}=h^{t-1} \odot r,再将 h^{t-1'} 与输入 x^{t} 进行拼接,再通过一个tanh 激活函数来将数据放缩到-1~1的范围内。

③ 更新记忆阶段:使用同一个门控 z 同时进行遗忘和选择记忆,忘记传递下来的 h^{t-1} 中的某些维度信息,并加入当前节点输入的某些维度信息。

总结:

①GRU输入输出的结构与普通的RNN相似,其中的内部思想与LSTM相似。

②与LSTM相比,GRU内部少了一个”门控“,参数比LSTM少,但是却也能够达到与LSTM相当的功能。

人人都能看懂的GRU - 知乎接续上一次介绍的LSTM ,这里我又很不要脸地使用“人人都能看懂的xxx”来作为标题,来将对GRU进行介绍。同样这里的内容是对台大李宏毅老师课程视频的一些记录以及自己的一些整理和思考。对于不懂基础RNN和LSTM的同…https://zhuanlan.zhihu.com/p/32481747


Transformer

Bert

卷积模型

CNN

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值