文章目录
Transformer从零详细解读(可能是你见过最通俗易懂的讲解) 学习笔记
1 概览
6(Nx) 个 encoder(结构上相同,参数独立训练不同)
6(Nx) 个 decoder(结构上相同,参数独立训练不同)
decoder 比 encoder 多了一个 mask
2 输入——embedding+位置编码
RNN 共享一套参数(U W V)
RNN 梯度消失,被近距离主导,远距离忽略不计
transformer 是并行化的,不是时序的,所以需要位置编码
偶 sin
奇 cos
绝对位置蕴含了相对位置信息
3 多头注意力
注意力机制
左上左下右上右下四个区域
点乘(一个向量在另一个向量上投影的长度,越大越相似)
多头,多套 W 参数,类比于卷积核的个数(输出特征图的通道数)
4 残差
5 Layer Normalization or Batch Normalization
BN 在 NLP 效果很差
默认同一行是同一特征
RNN 输入是动态的,不能有效的获取整个 bs 的均值和方差
我和今代表同样的语义信息(类比于体重)
LN 把“我爱xxxx” 所有词当成一个语义信息
feed forward 两层 fc
6 Decoder
预测的时候,看不到后续的单词,所以训练的时候要 mask 掉
附录-Swin TRM
输入输出维度没有变化
window 的像素点做为 token
附录——生动形象的解释 QKV
Q K V
来自 【深度学习】如何理解attention中的Q,K,V?
这个数值就代表了“我想吃酸菜鱼”中“我”字对“我”字的注意力权重
就相当于用每个字的权重对每个字的特征进行加权求和