Image from GoogleDeepMind (Open Source available on pexels)
图片来自 GoogleDeepMind(pexels 上提供开源)
目录
使用 Python 从头开始构建百万参数 LLM | Building a Million-Parameter LLM from Scratch Using Python
Understanding the Transformer Architecture of LLaMA了解 LLaMA 的 Transformer 架构
Pre-normalization Using RMSNorm:使用 RMSNorm 进行预归一化:
SwiGLU Activation Function:SwiGLU 激活函数:
Rotary Embeddings (RoPE):旋转嵌入 (RoPE):
Setting Up a Base Neural Network Model设置基本神经网络模型
Replicating LLaMA Architecture复制 LLaMA 架构
RMSNorm for pre-normalization:预归一化的 RMSNorm:
SwiGLU activation function:SwiGLU 激活函数:
Experimenting with hyperparameters尝试超参数
Saving Your Language Model (LLM)保存你的语言模型(LLM)