自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(15)
  • 收藏
  • 关注

原创 书生大模型实战营(暑假场)进阶岛关卡六——MindSearch 快速部署

书生大模型实战营(暑假场)进阶岛关卡六——MindSearch 快速部署按照教程,将 MindSearch 部署到 HuggingFace 并美化 Gradio 的界面,并提供截图和 Hugging Face 的Space的链接。解决了一些报错问题总结下git push 遇到的错误:1.一直说没有给token令牌美化 Gradio 的界面

2024-08-27 11:04:51 1024

原创 书生大模型实战营(暑假场)进阶岛关卡五——茴香豆:企业级知识库问答工具

在 InternStudio 中利用 Internlm2-7b 搭建标准版茴香豆知识助手,并使用 Gradio 界面完成 2 轮问答(问题不可与教程重复,作业截图需包括 gradio 界面问题和茴香豆回答)。知识库可根据根据自己工作、学习或感兴趣的内容调整,如金融、医疗、法律、音乐、动漫等(优秀学员必做)。

2024-08-26 19:27:31 1204

原创 书生大模型实战营(暑假场)进阶岛关卡四——InternVL 多模态模型部署微调实践

书生大模型实战营(暑假场)进阶岛关卡四——InternVL 多模态模型部署微调实践follow 教学文档和视频使用QLoRA进行微调模型,复现微调效果,并能成功讲出梗图.尝试使用LoRA,或调整xtuner的config,如LoRA rank,学习率。看模型Loss会如何变化,并记录调整后效果(选做,使用LoRA或调整config可以二选一)

2024-08-25 19:38:26 891

原创 书生大模型实战营(暑假场)进阶岛关卡三——LMDeploy 量化部署进阶实践

使用结合W4A16量化与kv cache量化的internlm2_5-1_8b-chat模型封装本地API并与大模型进行一次对话,作业截图需包括显存占用情况与大模型回复,参考4.1 API开发(优秀学员必做),请注意2.2.3节与4.1节应使用作业版本命令。使用Function call功能让大模型完成一次简单的"加"与"乘"函数调用,作业截图需包括大模型回复的工具调用情况,参考4.2 Function call(选做)报错TypeError: 'NoneType' object is not subs

2024-08-25 13:05:29 1029

原创 书生大模型实战营(暑假场)进阶岛关卡二——Lagent 自定义你的 Agent 智能体

书生大模型实战营(暑假场)进阶岛关卡二——Lagent 自定义你的 Agent 智能体使用 Lagent 自定义一个智能体,并使用 Lagent Web Demo 成功部署与调用,记录复现过程并截图。

2024-08-24 14:44:25 346

原创 书生大模型实战营(暑假场)进阶岛关卡一——探索 InternLM 模型能力边界

书生大模型实战营(暑假场)进阶岛关卡一——探索 InternLM 模型能力边界

2024-08-24 00:06:42 706

原创 书生大模型实战营(暑假场)基础岛关卡四——InternLM + LlamaIndex RAG 实践

InternLM + LlamaIndex RAG 实践。给模型注入新知识的方式,可以简单分为两种方式,一种是内部的,即更新模型的权重,另一个就是外部的方式,给模型注入格外的上下文或者说外部信息,不改变它的的权重。第一种方式,改变了模型的权重即进行模型训练,这是一件代价比较大的事情,大语言模型具体的训练过程,可以参考InternLM2技术报告。:(我们也可以选用别的开源词向量模型来进行 Embedding,目前选用这个模型是相对轻量、支持中文且效果较好的,同学们可以自由尝试别的开源词向量模型)

2024-08-17 17:43:51 838

原创 书生大模型实战营(暑假场)基础岛关卡六——OpenCompass 评测 InternLM-1.8B 实践

确保按照上述步骤正确安装 OpenCompass 并准备好数据集后,可以通过以下命令评测 InternLM2-Chat-1.8B 模型在 C-Eval 数据集上的性能。由于 OpenCompass 默认并行启动评估过程,我们可以在第一次运行时以 --debug 模式启动评估,并检查是否存在问题。在 --debug 模式下,任务将按顺序执行,并实时打印输出。除了通过命令行配置实验外,OpenCompass 还允许用户在配置文件中编写实验的完整配置,并通过 run.py 直接运行它。

2024-08-15 22:47:22 293

原创 书生大模型实战营(暑假场)基础岛关卡五——XTuner 微调个人小助手认知

对于在 InternStudio 上运行的小伙伴们,可以不用通过 HuggingFace、OpenXLab 或者 Modelscope 进行模型的下载,在开发机中已经为我们提供了模型的本地文件,直接使用就可以了。在 PART 1 的部分,由于我们不再需要在 HuggingFace 上自动下载模型,因此我们先要更换模型的路径以及数据集的路径为我们本地的路径。,在使用前我们需要准备好三个路径,包括原模型的路径、训练好的 Adapter 层的(模型格式转换后的)路径以及最终保存的路径。我们可以添加自己的输入。

2024-08-15 15:23:19 856

原创 书生大模型实战营(暑假场)基础岛关卡三——浦语提示词工程实践

Prompt是一种用于指导以大语言模型为代表的生成式人工智能生成内容(文本、图像、视频等)的输入方式。它通常是一个简短的文本或问题,用于描述任务和要求。Prompt可以包含一些特定的关键词或短语,用于引导模型生成符合特定主题或风格的内容。例如,如果我们要生成一篇关于“人工智能”的文章,我们可以使用“人工智能”作为Prompt,让模型生成一篇关于人工智能的介绍、应用、发展等方面的文章。Prompt还可以包含一些特定的指令或要求,用于控制生成文本的语气、风格、长度等方面。

2024-08-14 23:47:35 807

原创 书生大模型实战营(暑假场)基础岛关卡二——8G 显存玩转书生大模型 Demo

使用InternStudio开发机实现InternLM2-Chat-1.8B 模型,生成300字小故事的过程

2024-08-14 15:59:18 199

原创 书生大模型实战营(暑假场)基础岛关卡一——书生大模型全链路开源体系笔记

随着我国中央企业普遍采用的人工智能技术的崛起,为了构建大型模型的生态应用,各种比赛变得异常热门。最近,我看到上海人工智能实验室正在制作书生浦语的大型模型,在业余时间里,我与朋友们一同学习和参与比赛,这不仅是学习的笔记,也是完成作业的机会。

2024-08-14 15:18:56 519

原创 书生大模型实战营(暑假场)入门岛关卡三——Git基础知识

创建一个个人仓库,用于提交笔记、心得体会或分享项目。每位参与者提交一份自我介绍。的 camp3 分支~3.Fork 目标项目。2.全局设置用户信息。

2024-08-10 17:23:17 255

原创 书生大模型实战营(暑假场)入门岛关卡二——Python基础知识

任务:1. 实现一个wordcount函数,统计英文字符串中每个单词出现的次数。返回一个字典,key为单词,value为对应单词出现的次数。TIPS:记得先去掉标点符号,然后把每个单词转换成小写。不需要考虑特别多的标点符号,只需要考虑实例输入中存在的就可以。2. 使用本地vscode连接远程开发机,将上面你写的wordcount函数在开发机上进行debug,体验debug的全流程,并完成一份debug笔记(需要截图)。

2024-08-10 14:14:33 227

原创 书生大模型实战营(暑假场)入门岛关卡一——Linux 基础知识

完成SSH连接与端口映射并运行hello_world.py

2024-08-10 12:23:49 122

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除