书生·浦语大模型学习第一课作业-书生·浦语大模型全链路开源体系

第一课:书生·浦语大模型全链路开源体系

一、前言

相对以往的专用大模型而言,通用大模型是一个模型对应多种任务,多种模态的模型,现成为人工智能发展趋势。书生浦语2.0大模型(InternLM2)与2024年1月17日开源,提供了7B轻量级模型和20B中量级模型,每个模型都包含了InternLM2-Base,InternLM2,InternLM2-Chat模型,InternLM2 的核心理念在于回归语言建模的本质,致力于通过提高语料质量及信息密度,实现模型基座语言建模能力获得质的提升,进而在数理、代码、对话、创作等各方面都取得长足进步,综合性能达到同量级开源模型的领先水平。

二、书生浦语2.0的主要亮点

1、超长上下文;

在20万超长token上下文中几乎完美实现“大海捞针”。

2、综合性能全面提升;

在这里插入图片描述

3、优秀的对话和创作体验;

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

4、工具调用能力整体升级;

在这里插入图片描述

5、突出的数理能力和实用的数据分析功能。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

三、从模型到应用

1、主要应用方向

智能客服、个人助手、行业应用。

2、典型流程

在这里插入图片描述

四、全链条开源开放体系

书生浦语全链条开源开放体系

1、数据集:书生·万卷 1.0 书生·万卷 CC

2、预训练

3、微调:增量续训(文章、书籍、代码)(让模型学习一些新知识,如某个垂类领域的知识)

监督微调(高质量的对话,问答数据)(让模型学会理解各种指令)

高效微调框架(XTuner)

4、评测:Opencompass;compass Kit ;compass hub

5、部署:LMDeploy

6、应用:智能体lagent:多模态智能体工具箱agentLego
在这里插入图片描述

五、总结

书生浦语2.0大模型是上海人工智能实验室与商汤科技联合香港中文大学和复旦大学正式发布新一代大语言,该模型工具链极其完善,支持开源本地化部署与开发;模型性能强, 数据集都已开放,兼容性强,支持HuggingFace,是本地部署与二次开发应用的一款非常不错的大模型之一。

  • 3
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值