书生·浦语大模型全链路开源体系-第1课

上海人工智能实验室的书生·浦语大模型开源,介绍了从InternLM到2.0版本的进展,包括全链路开源体系、模型微调方法及实战案例。该模型在通用性和性能上有所突破,适用于不同规模的场景和复杂业务处理。
摘要由CSDN通过智能技术生成

书生·浦语大模型全链路开源体系-第1课

为了推动大模型在更多行业落地应用,让开发人员更高效地学习大模型的开发与应用,上海人工智能实验室重磅推出书生·浦语大模型实战营,为开发人员提供大模型学习和开发实践的平台。
本文是书生·浦语大模型全链路开源体系-第1课的课程笔记。

相关资源

  • InternLM项目地址

https://github.com/InternLM/InternLM

  • InternLM2技术报告

https://arxiv.org/pdf/2403.17297.pdf

  • 书生·万卷 数据

https://opendatalab.org.cn/

  • 课程链接

https://www.bilibili.com/video/BV1Vx421X72D/

课程笔记

大模型已经成为发展通用人工智能的重要途经,从本世纪初到2021年左右,专用模型发展迅速。专用模型主要是针对特定的任务,一个模型主要解决一个问题,比如图像识别、语音识别、人脸识别、比赛等。

最近两年,通用大模型成为了人工智能领域的热点。通用大模型可以应对多种任务、多种模态。

image-20240328155555261

2023年6月,基于千亿参数的大语言模型InternLM发布,随后全面开源、免费商用。在经过半年的快速迭代与发展,2024年1月InternLM 2开源了。

image-20240328155613334

书生·浦语 2.0,面向不同的使用需求,提供了不同规格的版本。轻量级的研究和应用可以使用70亿参数的7B版本,200亿参数的20B则综合性能更为强劲,可以有效地支持更加复杂的场景。

image-20240328155735719
image-20240328155819789

书生·浦语 2.0的主要亮点。

image-20240328155957736

性能全方位提升。

image-20240328160031713

下面是书生·浦语 2.0的几个简单的使用案例。

image-20240328160101561
image-20240328160204768
image-20240328160232281
image-20240328160258312

书生·浦语 2.0 从模型到应用拥有一套典型的流程。简单场景下可以直接使用预训练的模型,复杂业务场景下可以根据算力情况对模型进行全参数微调或部分参数微调以满足场景需求。

image-20240328160331969

书生·浦语 2.0 全链条开源开放体系

  • 书生·万卷拥有2TB数据,涵盖了多种模态与任务
  • 预训练可以使用InternLM-Train
  • 微调可以使用XTuner,支持全参数微调、LoRA低成本微调
  • LMDeploy可以实现全链路部署,性能领先
  • OpenCompass可以实现模型的全方位测评,已被多家企业用于模型测评
  • Lagent、AgentLego支持多种智能体、代码解释等

image-20240328160358564

更多其它功能。

image-20240328160432543
image-20240328160523447

技术报告笔记

InternLM 2 是由上海人工智能实验室、商汤科技、香港中文大学以及多位研究者共同开发的开源大语言模型,在6个维度和30个基准测试中表现出色,特别是在长文本建模和开放式主观评估方面。模型采用了创新的预训练优化技术以提高性能。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

wux_labs

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值