大模型是发展通用人工智能的重要途径。从专用模型(AlphaGo、人脸识别、德州扑克等)到通用大模型,一个模型应对多个任务、多种模态。
书生-浦语大模型
书生-浦语大模型陆续推出:
2023.7.6,InternLM-7B:开源率先免费商用
2023.9.20,InternLM-20B:200亿参数,开源工具链全线升级
2024.1.17,InternLM2开源:性能超最新同量级开源模型
2024.7.4,InternLM2.5开源
书生-浦语2.5概览
推理能力领先
支持100万字上下文
自主规划和搜索完成复杂任务
从模型到应用
从模型到应用是一个长链条:模型选型-续训/全参数微调(算力足够)-部分参数微调(算力不足,如LoRA)-构建智能体(与外部系统进行交互)-模型评测-模型部署。
全链条开源体系
书生-浦语全链条开源体系:
数据:书生-万卷
训练框架:InternEvo
评测:OpenCompass
微调:XTuner
部署:LMDeploy
应用:Lagent、HuixiangDou、MindSearch、MindU
书生-万卷
50亿文档,1TB数据量
OpenDataLab 开放数据平台:30+模态,80TB数据
InternEvo
模型训练
分布式训练系统
训练支持系统
基础设施
XTuner
微调
增量续训:让基座模型学习到一些新知识,如垂直领域知识
训练数据:文字、书籍或代码等。
有监督微调:让模型学会和理解各种指令,或者注入少量领域知识。
训练数据以高质量对话、问答数据为主
XTuner:支持多种微调算法,适配Huggingface、ModelScope的模型或数据集,自动优化加速,适配多种硬件(消费级显卡+数据中心显卡)
OpenCompass
大模型开源评测体系:6个维度进行评测。
主要面向基座模型和对话模型。
LMDeploy
大模型部署LMDeploy:
模型并行
量化
Attention优化
引擎
服务
支持模型的轻量化(4bit权重、8bit k/v)、推理(turbomind & pytorch)和服务(open-ai server, gradio, triton inference server),对外提供python、grpc、restful接口。
Lagent
LLM局限:最新知识获取;回复可靠性;数学计算;工具使用和交互。
使用LLM驱动智能体。
轻量级Lagent框架:
ReAct:根据输入选择工具
ReWoo:根据输入划分计划
AutoGPT:人工干预
支持多种大语言模型,集成了一些工具。
————————————————
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
原文链接:https://blog.csdn.net/yuetou/article/details/141144108