【Transformer】Introduction to Transformer

在这里插入图片描述

Transformer从零详细解读(可能是你见过最通俗易懂的讲解) 学习笔记

1 概览

在这里插入图片描述
在这里插入图片描述
6(Nx) 个 encoder(结构上相同,参数独立训练不同)
6(Nx) 个 decoder(结构上相同,参数独立训练不同)
在这里插入图片描述
decoder 比 encoder 多了一个 mask

在这里插入图片描述

2 输入——embedding+位置编码

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
RNN 共享一套参数(U W V)

RNN 梯度消失,被近距离主导,远距离忽略不计

transformer 是并行化的,不是时序的,所以需要位置编码

在这里插入图片描述
偶 sin
奇 cos

在这里插入图片描述

在这里插入图片描述
绝对位置蕴含了相对位置信息

3 多头注意力

注意力机制
在这里插入图片描述
在这里插入图片描述
左上左下右上右下四个区域

点乘(一个向量在另一个向量上投影的长度,越大越相似)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
多头,多套 W 参数,类比于卷积核的个数(输出特征图的通道数)

在这里插入图片描述

4 残差

在这里插入图片描述

5 Layer Normalization or Batch Normalization

在这里插入图片描述
BN 在 NLP 效果很差
在这里插入图片描述
默认同一行是同一特征

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
RNN 输入是动态的,不能有效的获取整个 bs 的均值和方差

在这里插入图片描述
我和今代表同样的语义信息(类比于体重)

LN 把“我爱xxxx” 所有词当成一个语义信息

在这里插入图片描述
feed forward 两层 fc

6 Decoder

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
预测的时候,看不到后续的单词,所以训练的时候要 mask 掉

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

附录-Swin TRM

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
输入输出维度没有变化


在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
window 的像素点做为 token

在这里插入图片描述
在这里插入图片描述

附录——生动形象的解释 QKV

Q K V

来自 【深度学习】如何理解attention中的Q,K,V?
在这里插入图片描述

在这里插入图片描述

这个数值就代表了“我想吃酸菜鱼”中“我”字对“我”字的注意力权重

在这里插入图片描述

就相当于用每个字的权重对每个字的特征进行加权求和

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值