大模型实战营Day1 书生·浦语大模型全链路开源体系

大模型实战营Day1 书生·浦语大模型全链路开源体系

大模型为发展通用人工智能的重要途经

从最近两年的发展来看,更倾向于用一个模型来尽可能涵盖所有任务(如
chatgpt)

  1. 专用模型:针对特定任务,一个模型解决一个问题
  2. 通用大模型:一个模型应对多种任务、多种模态

书生·浦语大模型开源历程

书生·浦语大模型系列

已经覆盖了轻量级、中量级、重量级三个级别,7B和20B都是开源可用的。
20B开源大模型的性能以不足三分之一的参数量,达到了非常好的性能。

不同量级的模型的能力和使用场景:

轻量级InternLM-7B(社区低成本可用最佳模型规模):70亿模型参数,小巧轻便,便于部署;10000亿训练token数据,信息全面,能力多维;具备长语境能力,支持8k语境窗口长度;具备通用工具调用能力,支持多种工具调用模板

中量级InternLM-20B(商业场景可开发定制高精度 较小模型规模​):200亿参数量,在模型能力与推理代价间取得平衡;采用深而窄的结构,降低推理计算量但提高了推理能力;4k训练语境长度,推理时可外推至16k

重量级InternLM-123B(通用大语言模型能力全面覆盖 千亿模型规模):1230亿模型参数,强大的性能;具备极强的推理能力、全面的知识覆盖面、超强理解能力与对话能力;准确的API调用能力,可实现各类Agent

从模型到应用

根据实际应用需求实现大模型到智能体、微调、评测到部署
在这里插入图片描述

书生·浦语全链条开源开放体系

涵盖数据、预训练、微调,、部署、评测和应用
在这里插入图片描述

数据

书生·万卷是全链条开源开放体系的数据集,同时OpenDataLab平台有非常的开放数据可供下载。
在这里插入图片描述
在这里插入图片描述

预训练

在这里插入图片描述

微调

在这里插入图片描述
微调XTuner
优化加速, 8G ROM 显卡调7B模型。支持全参数微调、LoRA 等低成本微调,提供增量续训和有监督微调。
在这里插入图片描述

部署LMDeploy

在这里插入图片描述
全链路部署,性能领先,每秒生成2000+ tokens。提供大模型在GPU上部署的全流程解决方案,包括模型轻量化、推理和服务。

大模型语言的特点带来了相应的技术挑战, 采用不同的优化部署方案;
使用LMDeploy, 模型轻量化, 推理和服务;
有优秀的推理性能, 静态/动态
在这里插入图片描述

评测 OpenCompass平台

在这里插入图片描述
全方位评测,性能可复现。80套评测集,40万道题目。

评测体系6大维度:

学科:初中考试、中国高考、大学考试、语言能力考试、职业资格考试

语言:字词释义、成语习语、语义相似、指代消解、翻译

知识:知识问答、多语种知识问答

理解:阅读理解、内容分析、内容总结

推理:因果推理、常识推理、代码推理、数学推理

安全:偏见、有害性、公平性、隐私性、真实性、合法性

在这里插入图片描述
在这里插入图片描述

智能体应用

智能体以大模型为核心,进行调用、规划、推理和执行。
在这里插入图片描述
轻量级智能体框架:AppAgent
在这里插入图片描述

教程链接:书生·浦语大模型全链路开源体系
书生·浦语大模型实战营Github仓库

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值