DL&NLP学习笔记 & 2021春招面试——RNN & Attention

本文介绍了词表示的几种方式,如基于语言模型的RNN,以及RNN的基本结构和训练问题,包括梯度消失和爆炸。此外,详细阐述了Attention机制,特别是Dot-Product Attention,用于解决RNN中长序列信息处理的挑战,使得模型在解码时能关注输入序列的不同部分。
摘要由CSDN通过智能技术生成

Word Representation

词表示分类如下:
词表示分类
语言模型:预测一个词序列的概率

RNN

假设:时间信息很重要
想法:将上一个隐藏层的信息传递给所有上下文;将神经网络的条件设置为所有前面的单词,并在每个时间步上绑定权重;

Bi-Gram模型:用前一个词预测下一个词
在这里插入图片描述
RNN:用前面所有词预测下一个词
在这里插入图片描述

RNN Formulation

激活函数:在这里插入图片描述
在这里插入图片描述

模型训练过程

在这里插入图片描述
在这里插入图片描述
在训练过程中会考虑所有输出节点的cost function
在这里插入图片描述
所以所有参数的update要考虑所有偏微分计算的影响
在这里插入图片描述

RNN Training Issue:梯度消失or爆炸

梯度是雅可比矩阵的乘积,每一个都与前向计算中的一步相关联,在后向传播过程中的每一个时间步都会乘以相同矩阵
在这里插入图片描述
梯度变得非常小或很大→梯度消失梯度爆炸

梯度爆炸解决方法:梯度裁剪
在这里插入图片描述
梯度消失解决方法:门控
在这里插入图片描述

Attention

Attention weight

Attention weight:越高越说明需要放越多的注意力在h上面
在这里插入图片描述
将Decoder部分的hidden layer与Encoder部分hidden layer的计算match程度,结果为attention值。在Encoder部分通过attention值和softmax计算出attention weight,再加权求和计算出中间的context embedding,在Decoder部分与同时间节点hidden layer一起传入下一个时间节点。
在这里插入图片描述
在decode的时候,每一个time step都计算一个attention,使每一个output能focus在不同的input上:
在这里插入图片描述
KQV的出现:其中Key和Query的数量要相对应
在这里插入图片描述

Dot-Product Attention

在这里插入图片描述
矩阵形式:
在这里插入图片描述

参考资料

NTU ADL 2020 https://www.csie.ntu.edu.tw/~miulab/s108-adl/syllabus
Dive into Deep Learning
https://d2l.ai/

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值