书生·浦语第二期大模型实战营(初夏专场)-作业1

作业1

文档地址
https://github.com/InternLM/Tutorial/tree/camp2

第一节课程地址
https://www.bilibili.com/video/BV1Vx421X72D
InternLM2

LLM介绍
书生·浦语2.0(InternLM2)是由上海人工智能实验室与商汤科技联合香港中文大学和复旦大学共同发布的新一代大语言模型。InternLM2 的核心理念在于回归语言建模的本质,通过提高语料质量及信息密度,实现模型基座语言建模能力的质的提升。模型在大规模验证语料上的 Loss 分布整体左移,表明了其语言建模能力的实质性增强。

课程安排
1.书生·浦语大模型全链路开源体系:深入讲解大模型的开源体系和应用框架。
2.大模型趣味 Demo:通过实际操作,让学员亲身体验大模型的魅力。
3.零代码搭建 RAG 智能助理:教授如何不编写代码即可创建智能助理。
4.LLM 微调实践:包括 1.8B 参数模型、多模态和智能体应用的微调。
5.LMDeploy 量化部署:学习如何将大模型部署到实际应用中。
6.智能体应用搭建:使用 Lagent & AgentLego 构建智能体应用。
7.大模型评测实战:通过 OpenCompass 工具进行大模型的评测。
8.微调数据构造:学习如何构建用于微调大模型的数据集。

在第一节课程中想想介绍了全链路开源体系的组成部分:数据集(书生万卷)、预训练框架(InternLM-Train)、微调框架(X Tuner)、部署解决方案(LM Deploy)、评测体系(Open Compass)。

总结
书生·浦语全链路开源体系是一个全面、多元化的项目,涵盖了从数据、预训练到微调、部署等多个环节.通过老师的详细介绍,我对书生·浦语大模型的全链路开源体系有了全面的认识, 同时也了解到开源对于推动技术发展的重要性,并对整个LLM也有了初步认知.

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值