书生大模型实战营(暑假场)基础岛
文章平均质量分 84
甜甜的火鸡面
充实自己
展开
-
书生大模型实战营(暑假场)基础岛关卡四——InternLM + LlamaIndex RAG 实践
InternLM + LlamaIndex RAG 实践。给模型注入新知识的方式,可以简单分为两种方式,一种是内部的,即更新模型的权重,另一个就是外部的方式,给模型注入格外的上下文或者说外部信息,不改变它的的权重。第一种方式,改变了模型的权重即进行模型训练,这是一件代价比较大的事情,大语言模型具体的训练过程,可以参考InternLM2技术报告。:(我们也可以选用别的开源词向量模型来进行 Embedding,目前选用这个模型是相对轻量、支持中文且效果较好的,同学们可以自由尝试别的开源词向量模型)原创 2024-08-17 17:43:51 · 842 阅读 · 0 评论 -
书生大模型实战营(暑假场)基础岛关卡六——OpenCompass 评测 InternLM-1.8B 实践
确保按照上述步骤正确安装 OpenCompass 并准备好数据集后,可以通过以下命令评测 InternLM2-Chat-1.8B 模型在 C-Eval 数据集上的性能。由于 OpenCompass 默认并行启动评估过程,我们可以在第一次运行时以 --debug 模式启动评估,并检查是否存在问题。在 --debug 模式下,任务将按顺序执行,并实时打印输出。除了通过命令行配置实验外,OpenCompass 还允许用户在配置文件中编写实验的完整配置,并通过 run.py 直接运行它。原创 2024-08-15 22:47:22 · 295 阅读 · 0 评论 -
书生大模型实战营(暑假场)基础岛关卡五——XTuner 微调个人小助手认知
对于在 InternStudio 上运行的小伙伴们,可以不用通过 HuggingFace、OpenXLab 或者 Modelscope 进行模型的下载,在开发机中已经为我们提供了模型的本地文件,直接使用就可以了。在 PART 1 的部分,由于我们不再需要在 HuggingFace 上自动下载模型,因此我们先要更换模型的路径以及数据集的路径为我们本地的路径。,在使用前我们需要准备好三个路径,包括原模型的路径、训练好的 Adapter 层的(模型格式转换后的)路径以及最终保存的路径。我们可以添加自己的输入。原创 2024-08-15 15:23:19 · 858 阅读 · 0 评论 -
书生大模型实战营(暑假场)基础岛关卡三——浦语提示词工程实践
Prompt是一种用于指导以大语言模型为代表的生成式人工智能生成内容(文本、图像、视频等)的输入方式。它通常是一个简短的文本或问题,用于描述任务和要求。Prompt可以包含一些特定的关键词或短语,用于引导模型生成符合特定主题或风格的内容。例如,如果我们要生成一篇关于“人工智能”的文章,我们可以使用“人工智能”作为Prompt,让模型生成一篇关于人工智能的介绍、应用、发展等方面的文章。Prompt还可以包含一些特定的指令或要求,用于控制生成文本的语气、风格、长度等方面。原创 2024-08-14 23:47:35 · 807 阅读 · 0 评论 -
书生大模型实战营(暑假场)基础岛关卡二——8G 显存玩转书生大模型 Demo
使用InternStudio开发机实现InternLM2-Chat-1.8B 模型,生成300字小故事的过程原创 2024-08-14 15:59:18 · 201 阅读 · 0 评论 -
书生大模型实战营(暑假场)基础岛关卡一——书生大模型全链路开源体系笔记
随着我国中央企业普遍采用的人工智能技术的崛起,为了构建大型模型的生态应用,各种比赛变得异常热门。最近,我看到上海人工智能实验室正在制作书生浦语的大型模型,在业余时间里,我与朋友们一同学习和参与比赛,这不仅是学习的笔记,也是完成作业的机会。原创 2024-08-14 15:18:56 · 520 阅读 · 0 评论