书生浦语第二期实战营——第一课

本文介绍了书生系列的最新进展,包括InternLM的开源8K语境模型、20B参数的升级对话模型,强调了其强大的上下文理解和综合性能,如代码解释和数据分析能力。文章还讨论了模型的微调选项和在不同业务场景下的应用部署过程。
摘要由CSDN通过智能技术生成

课程地址:https://www.bilibili.com/video/BV1Vx421X72D/

主要内容:书生·浦语大模型全链路开源体系

专用模型到通用模型

专用模型:单任务——识别、分类…

通用模型:多任务多模态

书生系列

InternLM发布

开源:8K语境,26种语言(是26种数据库,还是一种语言训练,模型发布时嵌入翻译模块)

书生万卷1.0:预料库开源

升级对话模型:InternLM-Chat-7B v1.1发布,开源智能体框架Lagent——语言到智能体

InternLM千亿参数——132B

增强版InternLM-20B

InternLM 2开源(base、LM2、chat)

InternLM 2

语言建模的本质

数据清洗:

多维评估:文本、信息、信息密度

预料丰富

数据补齐

亮点:

上下文长:20万token的上下文

综合性能:InternLM-Chat-20B的推理、数学、代码能力比肩ChatGPT

对话和创作:AIpacaEval2

工具调用

书里和数据分析能力:GSM8K、MATH数据集

性能

工具调用

BINGMAP api、Email api

查询

代码解释器:撰写代码获得输出?

数据分析:上传表格——生成分析的代码

应用

过程:

评测:社区开源模型在开源数据集、榜单上的表现。

业务场景:

      复杂:算力——全参数(续训)、部分参数微调(LoRA)——具备业务场景的知识——和环境进行交互——构建智能体(评测)——部署

      不复杂:评测——部署。拿来直接用?

开放体系

微调

榜单

问题

部署

智能体

工具箱:AgentLego

Stable Diffusion 模型、语音、SAM

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值