通用大模型成为人工智能发展趋势
从单一功能转向通用大模型
书生浦语大模型开源历程
- 2023年6月7日-7月6日:InternLM 已实现并升级了多模态预训练语料库、模型规模、模型对话能力。
- 8月21日:开源增强版 InternLM-20B。
- InternLM-Chat-7Bv1.1 发布,对话模型升级版。
- 开源工具链全线升级,支持 8K 语境和 26 种语言。
- 开源智能体框架 Lagent 发布,提供了从语言模型到智能体的升级转换支持。
- InternLM-7B 模型和全链条开源工具体系的发布,为社区和商业用户提供了强大的资源。
书生浦语大模型 2.0
提供不同尺寸和类型的模型,支持多语言和多模态任务。
在各种能力评测中的表现,包括语言知识、推理、数学、代码等方面,同时还介绍了模型的应用和数据分析功能。20B 模型在推理数学代码等方面的性能优于 GPT-3.5 和 Germini Pro,模型在综合性能方面达到同量级的开源模型领先水平,模型内生的计算能力和数据分析功能能够处理复杂的任务和数据分析。
模型选型到应用的完整流程
- 模型选型需要考虑模型的复杂度和算力。
- 包括数据、预训练、微调、部署、评测、应用等环节。
- 书生万卷 CC 数据集开源,包括 2013 年至 2023 年的互联网公开内容,并进行精细化的清洗和处理。
-
书生·浦语大模型全链路开源体系:
- 书生·浦语大模型的全链路开源体系。
- 涉及大模型的构建、训练、微调和部署。
-
轻松玩转书生·浦语大模型趣味 Demo:
- 展示如何通过趣味 Demo 轻松使用书生·浦语大模型。
-
茴香豆:零代码搭建你的 RAG 智能助理:
- 如何零代码搭建一个基于 RAG(Retrieval-Augmented Generation)的智能助理。
-
XTuner 微调 LLM:1.8B、多模态、Agent:
- 如何使用 XTuner 工具对大型语言模型(LLM)进行微调,包括 1.8B 参数的模型、多模态处理和智能代理。
-
LMDeploy 量化部署 LLM-VLM 实践:
- 如何使用 LMDeploy 工具进行大模型的量化部署,特别是针对视觉语言模型(VLM)。
-
Lagent & AgentLego 智能体应用搭建:
- 如何搭建智能体应用,使用 Lagent 和 AgentLego 工具。
-
OpenCompass 大模型评测实战:
- 如何使用 OpenCompass 工具进行大模型的评测。
-
大模型微调数据构造(补充课程):
- 如何构造大模型微调数据。
-
多模态简述:
- 多模态技术及其在大模型中的应用。
-
LMDeploy 量化部署 InternVL 浦语灵笔实践:
- 使用 LMDeploy 工具进行 InternVL 浦语灵笔的量化部署实践。
-
XTuner 微调 LLaVA 实践:
- 使用 XTuner 工具对 LLaVA 模型进行微调实践。