书生·浦语大模型实战营笔记
第一节 书生·浦语大模型全链路开源体系
前言
从数据、预训练、微调、部署、评测、应用等方面介绍了intern-LM的开源工具
一、书生浦语大模型的规模
参数量有7B,20B,123B三种规模
二、如何应用大模型
对于简单场景可以直接部署,复杂场景需要判断是否有条件进行微调,随后根据是否需要与环境交互决定是否需要构建智能体。
# 三、开源全链路的六个流程
1.数据
2TB的量,包含多种模态
2.预训练
拓展性强速度快且兼容主流的标准
3.微调
最低可以兼容到20系显卡,小模型可以用8GB显存
4.评测
比现有评测体系更全面
5.部署
简洁易用,性能领先
6.智能体
可以支持多种大语言模型
总结
一套很全面的大模型开源体系,包含了数据、预训练、微调、部署、评测、智能体应用等方面