LLM基础知识备忘录

预训练相关

LearningRate和BatchSize之间的关系

假设batch_size足够小,等于1,如果lr设的比较大则容易导致loss发散;假设batch_size足够大,等于全量的数据,如果这个时候lr设的小则收敛会很慢。所以理论上来说,batch_size和模型参数增大,较小的lr并不是说不收敛,而是可能需要更多的steps才能收敛,因此需要适当增大lr。

关于位置编码

  • sinusoidal位置编码

考虑两个位置 iii 和 jjj,由于正弦和余弦函数的性质,位置编码的差值PE(i)−PE(j)\text{PE}(i) - \text{PE}(j)PE(i)−PE(j)将与iii和jjj之间的差值有关。这意味着通过比较不同位置编码之间的差值,模型可以推断出它们之间的相对位置。

  • ROPE相对位置编码

  • ALiBi位置编码

Pre-Norm和Post-Norm的差异和优劣

  • [理解Pre-Norm和Post-Norm]
  • [为什么Pre-Norm不如Post-Norm]

DeepSeek要点

  • 学习率细节:2000个warmup steps之后达到最大值,在80%的tokens之后学习率下降到最大值的31.6%,90%的tokens之后下降到最大值的10%。 最终模型表现上,multi-step schedulercosine scheduler基本保持一致;而multi-step的优势是,在保持模型大小固定调整训练规模时,可以重用第一阶段训练的结果,这比较方便后续的 继续训练

  • 梯度的grad clip设为1.0

  • 分布式策略

    • 数据并行、张量并行、序列并行、1F1B的流水线并行
    • flash attention
    • ZeRO-1用于根据数据并行排列划分优化器状态
    • 模型参数的精度为bf16,梯度的精度为fp32
  • 模型权重和优化器状态每5分钟同步,并且逐步清除之前保存的ckpt

  • Scaling Law

    • 数据质量越高,越可以将更多的计算预算分配给模型规模
    • 随着模型计算量的增大(即模型规模增大),最优的batch_size也在增大,最优的learning_rate呈现减小的趋势
  • Alignment:收集了150w中英文instruction数据,其中helpful数据有120w,31.2%是通用语言任务,46.6%是数学问题,22.2%是代码问题;安全数据有300K条,包含不同的敏感话题

    • 有监督微调SFT
      • 7B模型微调了4个epoch,67B模型只微调2个epoch,学习率分别是1e-55e-6
      • 微调过程中,除了观察benchmark的准确率,还会评估chat模型的重复率,收集了3868条中英文prompts,观测生成回复没有终止或者无休止重复一段文本的比例。发现随着数学SFT数据的增多,重复的概率也倾向于增大;主要原因应该是数学SFT数据较少包含相似的推理模式,弱模型较难获取这样的推理模式,导致重复的回复,为此设计了两阶段微调和DPO,保持benchmark恩叔的同时大大降低重复repetition
    • DPO:就helpfulness和harmlessness两方面构建训练DPO的偏好数据。对于helpfulness数据,收集多语言prompts,包含创新写作、问答、指令跟随等,使用DeepSeek Chat模型生成回复候选;对于harmlessness数据也进行相似的操作。
      • 训练1个epoch、learning_rate=5e-6batch_size=512,使用learning rate warmup和cosine learning rate scheduler
      • 我们发现DPO能够强化模型开发侧生成技能,而在标准benchmark的表现一般
  • 一些发现

    • Staged Fine-Tuning:在数学和代码数据集上,下模型需要更长微调时间,但是会损害模型对话的能力(比如增加重复的概率)。因此本文采用了分阶段微调:
      • 第一阶段采用全量数据未提哦啊
      • 第二阶段主要关注在对话数据上微调
    • 多项选择问题:对齐阶段加入多项选择数据,能够改善在多项选择评估任务上的效果,但是对于其他生成式任务没有明显改善(也没有下降)。因此在预训练和微调阶段,我们移除了MC数据,因为这些数据容易导致模型过拟合,却不会强化模型的智能性
    • 预训练中加入指令数据:在预训练最后10%过程加入500w条多项选择的指令数据,表明确实能强化base模型在benchmark上的效果。但是实验发现,其实在SFT阶段加入同样的数据结果是一致的。因此,我们认为模型整体的潜力并不会因为在预训练过程加入指令数据而得到强化。不过,如果指令数据规模够大,确实可以考虑在预训练过程中加入。而本文选择预训练过程不加入指令数据。
    • System Prompt:精心设计的system prompt能够有效指导模型生成helpful和respectful的结果。
      • 当引入system prompt时,7B LLM性能有一点下降,而67B的LLM性能有比较显著提升。我们认为更大的模型能够更好地理解system prompt的意图,从而更好地遵循指令、得到更好的回复。小模型很难充分掌握system prompt,同时训练和测试的不一致对性能产生了负面影响。
  • 核心贡献

    • 矫正了之前工作中scaling laws的问题,提供新的最优的模型-数据规模分配策略
    • 提出了一种新的方法,基于给定的预算budget来预测接近最优的batch sizelearning rate
    • 总结了scaling laws和数据质量的关系

关于MoE

Mixtral要点
  • Mixtral的每一层包含8个FFN块。对于每一层的每一个token,router网络选择两个experts处理当前状态,并将他们的输出进行组合。尽管每个token只使用了两个experts,但是每一个timestamp选择的expert是不同的,因此每一个token可以访问47B的参数,但是推理时只使用13B激活的参数。

  • 对于给定的输入xxx,MoE模块的输出是expert网络输出的加权和,这里的权重是由门网络输出,假设有nnn个expert网路{E0,Ei,⋯ ,En−1}\{E_0, E_i, \cdots, E_{n-1}\}{E0​,Ei​,⋯,En−1​},专家层的输出为:

∑i=0n−1G(x)i⋅Ei(x)\sum_{i=0}^{n-1} G(x)_i \cdot E_i(x)i=0∑n−1​G(x)i​⋅Ei​(x)

这里门网络G(x)G(x)G(x)有多种实现方式,一种简单且有效的方式就是记忆线性输出的Top-K的logits进行softmax

G(x):=Softmax(TopK(x⋅Wg))G(x) := \text{Softmax}(\text{TopK}(x \cdot W_g))G(x):=Softmax(TopK(x⋅Wg​))

这里,如果lil_ili​存在于logits的topK位置,则(TopK(l))i:=li(\text{TopK}(l))_i := l_i(TopK(l))i:=li​,否则(TopK(l))i=−∞(\text{TopK}(l))_i = - \infty(TopK(l))i​=−∞。这里的KKK表示每个token使用的experts的数量,是一个可以自定义的超参数。

  • 如果增加专家的数量nnn同时保持KKK固定,则可以在增加模型参数的同时保持计算开销固定。模型的参数随着专家数nnn的增加而增加,处理一个单独token的参数数量随着KKK的增加而增加,最大为nnn

  • MoE层在硬件上的前向:

    • 可以通过高性能专门的内核,在单个GPU上有效运行,如Megablocks
    • 也可以通过Expert Parallelism(EP)策略分配到多个GPU上。当MoE层执行时,tokens通过一个路由到对应GPU的专家进行处理,然后专家的输出返回到原始的token位置。

在Transformer模型中,MoE层在每一个token上单独应用,替换transformer block中的FFN子块。对于Mixtral我们使用相同的SwiGLU结构,对应专家函数为Ei(x)E_i(x)Ei​(x)并设置K=2K=2K=2。这意味着每一个token路由到2个不同权重集合的SwiGLU子块,因此对于输入token xxx的输出yyy为:

y=∑i=0n−1Softmax(Top2(x⋅Wg))i⋅SwiGLU(x)y = \sum_{i=0}^{n-1} \text{Softmax}(\text{Top2}(x \cdot W_g))_i \cdot \text{SwiGLU}(x)y=i=0∑n−1​Softmax(Top2(x⋅Wg​))i​⋅SwiGLU(x)

这个公式和GShard结构比较相似,只不过我们通过MoE层替换了所有FFN子块,而GShard替换了其他块,而且GShard对于每一个token的第二个专家采用了更加复杂的门控策略。

DeepSeekMoE要点
  • 两个核心原则:

    • Fine-grained Expert Segmentation:细地将专家划分为mNmNmN个,激活其中的mKmKmK个,实现激活的专家更灵活的组合
    • Shared Expert Isolation:将KsK_sKs​单独看做共享专家,用于捕获常识以及缓解路由专家中的冗余知识
  • 经典的将FFN替换为MoE层的方式如下:

    • NNN表示专家的数量
    • FFNi(⋅)\text{FFN}_i(\cdot)FFNi​(⋅) 表示第iii个专家FFN
    • gi,tg_{i, t}gi,t​表示第iii个专家的gate value,si,ts_{i, t}si,t​表示token-to-expert亲近度
    • Topk(⋅,K)\text{Topk}(\cdot, K)Topk(⋅,K)表示第ttt个token和所有NNN个专家计算得到的KKK个最高的亲近度分数
    • eil\mathbf{e}_i^leil​表示第lll层的第iii个专家中心centroid

  • DeepSeekMoE的结构
    • 对于传统MoE中每一个专家FFN,将FFN中间隐层维度降低到原大小的1m\frac{1}{m}m1​,将一个专家划分成mmm个更小的专家
    • 由于每一个专家变得更小了,相应地我们将激活的专家的数量增大到mmm倍来保持相同的计算开销
    • 将专家KsK_sKs​看做共享专家独立看待,无论路由模块如何,每一个token会确定性地分配到这些共享的专家上。为了保持计算开销一致,其他路由专家的激活数量需要减去KsK_sKs​。

  • Load Balance Consideration:训练时如果模型总是选择部分experts,其他experts就无法得到充分训练;如果专家分布在不同的devices上,负载不均衡就会成为计算瓶颈
    • Expert-Level Balance Loss:为了缓解路由崩塌的风险,我们采用了expert-level balance loss

    • Device-Level Balance Loss:我们的珠海要目标是保证不同设备均衡计算,如果我们将所有的路由专家分成DDD组{E1,E2,⋯ ,ED}\{ \mathcal{E}_1, \mathcal{E}_2, \cdots, \mathcal{E}_D \}{E1​,E2​,⋯,ED​},将每一组部署到一个单独的device,那么device-level的均衡损失为:

  • 实验设置
    • 9层Transformer层,hidden_dim=1280, num_heads=10, head_dim=128。将所有FFN层替换为MoE层,保证专家参数总数等于标准FFN的16倍
    • 保证激活的专家参数,包括共享专家参数和激活的路由专家参数,是标准FFN的2倍
    • 这样每个MoE模型总参数量为2B,激活的参数约为0.3B

对齐

Reward模型的损失函数

logits = 1 + torch.exp(rejected_reward - chosen_reward)

loss = torch.log(logits).mean()

Reward模型的输入和输出

# <s> prompt response </s>


分布式相关

DeepSpeed和Megatron之间的差异

  • [模型并行训练:DeepSpeed和Megatron的差异]
  • [分析transformer模型的参数量/计算量/中间激活/kV Cache]
  • [LLM并行训练技术介绍]

部署相关

常用的部署方式有哪些

vLLM

[github.com/vllm-projec…]

python -m vllm.entrypoints.openai.api_server --served-model-name Qwen1.5-7B-Chat --model Qwen/Qwen1.5-7B-Chat 

curl http://localhost:8000/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "Qwen1.5-7B-Chat",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Tell me something about large language models."}
]
}'

from openai import OpenAI
# Set OpenAI's API key and API base to use vLLM's API server.
openai_api_key = "EMPTY"
openai_api_base = "http://localhost:8000/v1"

client = OpenAI(
api_key=openai_api_key,
base_url=openai_api_base,
)

chat_response = client.chat.completions.create(
model="Qwen1.5-7B-Chat",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Tell me something about large language models."},
]
)
print("Chat response:", chat_response)

SGLang

github.com/sgl-project…

python -m sglang.launch_server --model-path Qwen/Qwen1.5-7B-Chat --port 30000

from sglang import function, system, user, assistant, gen, set_default_backend, RuntimeEndpoint

@function
def multi_turn_question(s, question_1, question_2):
s += system("You are a helpful assistant.")
s += user(question_1)
s += assistant(gen("answer_1", max_tokens=256))
s += user(question_2)
s += assistant(gen("answer_2", max_tokens=256))

set_default_backend(RuntimeEndpoint("http://localhost:30000"))

state = multi_turn_question.run(
question_1="What is the capital of China?",
question_2="List two local attractions.",
)

for m in state.messages():
print(m["role"], ":", m["content"])

print(state["answer_1"])

在这里插入图片描述

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

  • 12
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值