书生·浦语课程笔记(一):

首先附上InternLM的github连接:

InternLM/InternLM: InternLM has open-sourced 7 and 20 billion parameter base models and chat models tailored for practical scenarios and the training system. (github.com)然后是书生浦语官网连接:

书生·浦语 (intern-ai.org.cn)

接下来是第一次课程的笔记,主题为《书生·浦语全链条开源开放体系》,本次课程内容仅为介绍性质,供了解和参考。

一、InternLM出现的背景?

历史背景:大模型已经从传统的专用模型(针对特定任务,即一个模型解决一个问题)转变为通用模型(一个模型应对种任务多种模态)

现实的严峻:

1. 尽管现在有许多诸如ChatGPT,GPT-4等流行的大模型在语言模型领域做出了史无前例的创举,但包括OpenAI和Google这些大公司对于技术共享还是相当保守

2. 其他诸如GLM-130B,BLOOM,LLaMA模型的性能显著低于OpenAI的模型,它们对于一些具有挑战性的工作(比如多语义理解,复杂的解释说理和阅读理解等)方面的表现不尽人意。

二、InternLM的相关信息

1. 自从2023年6月7日至今的发展历程

图1 发展历程

2. 书生·浦语大模型系列

图2 三种语言模型

对于轻量级的模型,是社区低成本可用的最佳模型规模;若稍微大一点的项目可采用中量级,其为商业场景可开发定制的高精度较小模型规模;最好的便是重量级,为通用大语言模型,能力全面覆盖千亿模型规模

其性能的对比如图3所示:

图3 语言模型性能对比

三、从模型到应用。。。

图4 从模型到应用的流程

对于从模型到具体应用的流程,参数微调和是否环境交互的选择最为重要,因为不同的任务有不同的特点,而任务特点便决定了我们应该如何将大模型为己所用。

四、书生·浦语全链条开源开放体系

图5 全链条框架总结

图6 预训练和微调对比

图7 测评环节各层介绍

图8 测评支持的机构

图9 测评模型支持

图10 模型部署

图11 LMDeploy部署框架

图12 智能体

所有内容都是参考来自:

论文:InternLM-techreport/InternLM.pdf at main · InternLM/InternLM-techreport (github.com)

视频:书生·浦语大模型全链路开源体系_哔哩哔哩_bilibili

官网:InternLM

  • 16
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值