【Transformer】总体解读

目录

一、概述

二、位置编码

三、多头注意力机制

1. 注意力机制

1.1 基本的注意力机制

1.2 在TRM中怎么操作

四、残差和layerNorm 

1. 残差

2. layerNorm 

五、前馈神经网络


本文是对B站视频“transformer从零详细解读”的笔记,视频:https://www.bilibili.com/video/BV1Di4y1c7Zm?p=1

一、概述

TRM在做一个什么事情

transformer包含encoder和decoder

encoder和decoder分别有六个

原论文中transformer模型结构

encoder包含以下三个部分:

二、位置编码

encoder输入部分:

1. Embedding

2. 位置嵌入

为什么需要?

位置编码公式

将词向量和位置编码相加作为模型的输入

引申一下为什么位置嵌入会有用

但是这种相对位置信息会在注意力机制那里消失

三、多头注意力机制

1. 注意力机制

1.1 基本的注意力机制

经典的注意力机制的图,颜色深的表示很受关注,浅的表示不怎么受关注。

1.2 在TRM中怎么操作

原论文中注意力机制的计算公式:

从公式角度来看:拿上面的图片举例子

两个向量越相似,点乘结果越大

再举个栗子

TRM中的注意力

在只有单词向量的情况下,如何获取QKV?

w通过随机初始化,并训练获得参数。

计算QK相似度,得到attention值

实际代码使用矩阵,方便并行

多头注意力机制

多个头就会有多个输出,需要合在一起输出

四、残差和layerNorm

1. 残差

残差的作用

2. layerNorm

BN效果差,所以不用。(BN这边没看,后面需要补上)

为什么使用layer norm?

理解:为什么LayerNorm 单独对一个样本的所有单词做缩放可以起到效果。

把BN 引申到 RNN

五、前馈神经网络

decoder未学习,后面补上。

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
嗨!对于Transformer源码的解读,我可以给你一些基本的指导。请注意,我不能提供完整的源代码解读,但我可以帮助你理解一些关键概念和模块。 Transformer是一个用于自然语言处理任务的模型,其最著名的应用是在机器翻译。如果你想要深入了解Transformer的实现细节,我建议你参考谷歌的Transformer源码,它是用TensorFlow实现的。 在Transformer,有几个关键的模块需要理解。首先是"self-attention"机制,它允许模型在处理序列的每个位置时,同时关注其他位置的上下文信息。这个机制在Transformer被广泛使用,并且被认为是其性能优越的主要原因之一。 另一个重要的模块是"Transformer Encoder"和"Transformer Decoder"。Encoder负责将输入序列转换为隐藏表示,而Decoder则使用这些隐藏表示生成输出序列。Encoder和Decoder都由多个堆叠的层组成,每个层都包含多头自注意力机制和前馈神经网络。 除了这些核心模块外,Transformer还使用了一些辅助模块,如位置编码和残差连接。位置编码用于为输入序列的每个位置提供位置信息,以便模型能够感知到序列的顺序。残差连接使得模型能够更好地传递梯度,并且有助于避免梯度消失或爆炸的问题。 了解Transformer的源码需要一定的数学和深度学习背景知识。如果你对此不太了解,我建议你先学习相关的基础知识,如自注意力机制、多头注意力机制和残差连接等。这样你就能更好地理解Transformer源码的具体实现细节。 希望这些信息对你有所帮助!如果你有任何进一步的问题,我尽力回答。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值