目录
Word Representation
词表示分类如下:
语言模型:预测一个词序列的概率
RNN
假设:时间信息很重要
想法:将上一个隐藏层的信息传递给所有上下文;将神经网络的条件设置为所有前面的单词,并在每个时间步上绑定权重;
Bi-Gram模型:用前一个词预测下一个词
RNN:用前面所有词预测下一个词
RNN Formulation
激活函数:
模型训练过程
在训练过程中会考虑所有输出节点的cost function
所以所有参数的update要考虑所有偏微分计算的影响
RNN Training Issue:梯度消失or爆炸
梯度是雅可比矩阵的乘积,每一个都与前向计算中的一步相关联,在后向传播过程中的每一个时间步都会乘以相同矩阵
梯度变得非常小或很大→梯度消失或梯度爆炸
梯度爆炸解决方法:梯度裁剪
梯度消失解决方法:门控
Attention
Attention weight
Attention weight:越高越说明需要放越多的注意力在h上面
将Decoder部分的hidden layer与Encoder部分hidden layer的计算match程度,结果为attention值。在Encoder部分通过attention值和softmax计算出attention weight,再加权求和计算出中间的context embedding,在Decoder部分与同时间节点hidden layer一起传入下一个时间节点。
在decode的时候,每一个time step都计算一个attention,使每一个output能focus在不同的input上:
KQV的出现:其中Key和Query的数量要相对应
Dot-Product Attention
矩阵形式:
参考资料
NTU ADL 2020 https://www.csie.ntu.edu.tw/~miulab/s108-adl/syllabus
Dive into Deep Learning
https://d2l.ai/