一文彻底搞懂Transformer - 注意力机制

Transformer

一、注意力机制

在这里插入图片描述

Seq2Seq

在这里插入图片描述

注意力机制目标

在这里插入图片描述

Attention模块的主要作用是确定在给定上下文中哪些嵌入向量与当前任务最相关,并据此更新或调整这些嵌入向量的表示。

Transformer注意力机制

******注意力机制案例:在处理包含“model”一词的句子时,它通过分析句子中的其他单词(如“machine learning”或“fashion”),************计算这些单词与“model”之间的语义关系权重,并据此更新“model”的嵌入向量,以更准确地反映其在当前上下文中的含义。******

注意力机制案例

在这里插入图片描述

在这里插入图片描述

注意力机制计算公式

在这里插入图片描述

  • 生成Q、K、V向量:对于输入序列中的每个单词,都会生成对应的Query(查询)、Key(键)和Value(值)向量。这些向量通常是通过将单词的嵌入向量(Embedding Vector)输入到一个线性变换层得到的。

  • 计算Q、K的点积(注意力分数):计算Query向量与序列中所有单词的Key向量之间的点积,得到一个分数。这个分数反映了Query向量与每个Key向量之间的相似度,即每个单词与当前位置单词的关联程度。

  • Softmax函数归一化(注意力权重):这些分数会经过一个Softmax函数进行归一化,得到每个单词的注意力权重。这些权重表示了在理解当前单词时,应该给予序列中其他单词多大的关注。

  • 注意力权重加权求和(加权和向量):这些注意力权重与对应的Value向量进行加权求和,得到一个加权和向量。这个加权和向量会被用作当前单词的新表示,包含了更丰富的上下文信息。

注意力机制计算Q、K、V

_三、3种注意力机制_

在这里插入图片描述

Transformer注意力层

在这里插入图片描述

编码器输入序列通过Multi-Head Self Attention(多头自注意力)计算注意力权重。

编码器的Self Attention

解码器中的交叉注意力层:查询来自前一层解码器,而记忆键和值则来自编码器的输出。这使得解码器中的每个位置都能关注输入序列中的所有位置。

编码器-解码器两个序列通过Multi-Head Cross Attention(多头交叉注意力)进行注意力转移。

编码器-解码器的Cross Attention

在这里插入图片描述

解码器的单个序列通过Multi-Head Causal Self Attention(多头因果自注意力)进行注意力计算。

解码器的Causal Attention

神经网络算法 - 一文搞懂Transformer中的三种注意力机制

如何系统的去学习大模型LLM ?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高

针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉[CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)]()👈

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值