Llama 3 近期重磅发布,发布了 8B 和 70B 参数量的模型,XTuner 团队对 Llama 3 微调进行了光速支持!!!同时开源社区中涌现了 Llama3-XTuner-CN 手把手教大家使用 XTuner 微调 Llama 3 模型。
XTuner:http://github.com/InternLM/XTuner
Llama3-XTuner-CN: https://github.com/SmartFlowAI/Llama3-XTuner-CN/
1. Llama 3 概览
首先我们来回顾一下 Llama 3 亮点概览~
- 首次出现 8B 模型,且 8B 模型与 70B模型全系列使用 GQA (Group Query Attention)。
- 最大模型达到 400B 规模大小,未来几个月内发布!
- 分词器由 SentencePiece 换为了 Tiktoken,与 GPT4 保持一致。
- 相比于 Llama2 的 32000 词表大小,Llama3 的词表大小来到了惊人的 128256。
- 数据方面上,Llama3 使用了约 15T token 用于模型的训练。
- 开源模型大小为 8B 和 70B 两种,每种规模均有开源基座模型和 instruct 模型。
- Llama3 8B Instruct 模型在数学与代码能力方面数倍于 Llama2 7B chat 模型。
2. 2*A100 即可全量微调 8K 上下文 Llama3 8B
在正式实战之前我们先看一下 XTuner 团队对 Llama 3 8B 的性能测试结果,XTuner 团队在 Llama 3 发布之后光速进行