书生·浦语全链条开源开放体系
1、数据:书生·万卷
OpenDatalab
2、预训练:InternLM-Train
优于Megatron-deepSpeed,使用Hyper Zero技术,
3、微调:XTuner
**增量续训**:使用场景:让基座模型学习新知识多为垂直领域,训练数据:文章书籍代码等。**有监督微调**:使用场景:让模型学会理解或遵循指令或注入少量领域知识,训练数据:高质量对话、问答数据,(全量参数微调、部分参数微调如LoRa)
4、部署:LMDeploy
优于vLLM
5、评测:OpenCompass
6、应用:智能体/Lagent AgentLego
轻量型智能体框架Lagent:
多模态智能体工具箱:AgentLego
智能体:大模型的局限性:最新信息和知识的获取、数学计算、回复的可靠性、工具的使用和交互
Lagent: