阿里大模型一面:Transformer从头问到脚。。。

01

解释一下transformer的Attention机制?

Attention 机制它主要是关注在输入序列中的不同部分,计算每个词与其他词的一个相关性。

主要有 4 个步骤:

  • 输入表示,将输入序列映射为查询、键、值三个矩阵,也就是公式中的 Q、K、V。

  • 通过点积计算 Q K 相似度并进行缩放。

  • 将相似度通过 softmax 转换为权重

  • 使用这些权重对值进行加权求和,得到 Attention 的输出

transformer 里面的多头注意力机制通过划分不同子空间,然后并行计算注意力,有效捕捉输入序列中更多的关系信息,解决了单一注意力机制可能出现的分辨率降低问题。

这使得 Transformer 模型能够更准确地理解和生成复杂的序列数据。

02

说一下self-attention和cross-attention的关系?

这是 Transformer 中两种不同的注意力机制,Self-Attention 的作用是在同一个序列内,计算每个词与其他词的相关性,它在编码器和解码器的各层中,它的好处是能够捕捉序列中长距离依赖关系,处理整个输入序列,关注输入的不同部分。

cross-attention 的作用是在两个不同序列之间,通常是解码器计算当前生成的词与编码器输出之间的相关性。

它在解码器的层中,作用是将解码器生成的词与编码器的输入进行对齐,帮助解码器更好地理解输入序列。

问题:Transformer为什么要把全连接层要映射到一个更高的维度,又映射回原始维度?

全连接层映射到更高维度的目的是:

  • 提升特征表达能力: 通过映射到更高维度,模型能够在更高维空间中学习和表示更加复杂的特征,提高特征的表达能力。

  • 增加非线性变换: 更高维度的映射允许更多的非线性变换,使模型能够捕捉到输入数据中更复杂的模式和关系。

映射回原始维度两个目的:

  • 保持输入输出的一致性: 映射回原始维度确保了特征的维度与输入一致,便于后续层的处理和连接

  • 信息整合和压缩: 通过高维度的非线性变换和再压缩,模型能够整合和精炼特征信息,使其更具代表性和判别能力。

03

多头注意力机制复杂度是多少?

从多头注意力机制的原理来看,多头的实现不是循环的计算每个头,而是通过split,transpose 和 reshape操作,结合矩阵乘法来完成的。

举个例子,假设头数是 m,序列长度是 n,隐藏层维度是 d,一个头的维度是 a,Transformer 中把隐藏层维度 d 做了拆分,拆成了 m 和 a 维的向量,使得 Q 和 K 的维度都是(m,n,a)。

这样点积可以看作大小为(m,n,a)和(m,a,n)的两个张量相乘,得到一个(m,n,n)的矩阵,其实就相当于(n,a)和(a,n)的两个矩阵相乘,做了 m 次,时间复杂度是:

𝑂(𝑛2⋅𝑚⋅𝑎)=𝑂(𝑛2⋅𝑑)  

因此多头注意力机制时间复杂度也是 𝑂(𝑛2⋅𝑑),复杂度相较单头并没有变化,主要还是 transpose 和 reshape 的操作,相当于把一个大矩阵相乘变成了多个小矩阵的相乘。如果是多层的 transformer block,则需要乘以层数 L。

问题:训练大模型 Transformer 模型过程中,有什么可以缓解显存不足的办法?

这个问题可以从这几个方面去考虑:

(1)首先是模型结构方面: 可以使用增量预训练或者参数高效微调,例如 LoRA、Ptuning,adapter 等方式训练。

(2)然后是考虑采用分布式训练优化技术: 例如使用混合精度训练,使用 ZeRO 系列优化、重计算、如果显存严重不足,还可以考虑把 GPU 资源卸载到 CPU 上等。

(3)最后还可以从训练策略方面考虑: 例如采用梯度累积方式,即多步计算才更新一次梯度。

那么,如何系统的去学习大模型LLM?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

所有资料 ⚡️ ,朋友们如果有需要全套 《LLM大模型入门+进阶学习资源包》,扫码获取~

篇幅有限,部分资料如下:

👉LLM大模型学习指南+路线汇总👈

💥大模型入门要点,扫盲必看!
在这里插入图片描述
💥既然要系统的学习大模型,那么学习路线是必不可少的,这份路线能帮助你快速梳理知识,形成自己的体系。

路线图很大就不一一展示了 (文末领取)
在这里插入图片描述

👉大模型入门实战训练👈

💥光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

👉国内企业大模型落地应用案例👈

💥两本《中国大模型落地应用案例集》 收录了近两年151个优秀的大模型落地应用案例,这些案例覆盖了金融、医疗、教育、交通、制造等众多领域,无论是对于大模型技术的研究者,还是对于希望了解大模型技术在实际业务中如何应用的业内人士,都具有很高的参考价值。 (文末领取)
在这里插入图片描述

👉GitHub海量高星开源项目👈

💥收集整理了海量的开源项目,地址、代码、文档等等全都下载共享给大家一起学习!
在这里插入图片描述

👉LLM大模型学习视频👈

💥观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。 (文末领取)
在这里插入图片描述

👉640份大模型行业报告(持续更新)👈

💥包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
在这里插入图片描述

👉获取方式:

这份完整版的大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓

  • 6
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值