书生·浦语大模型实战营
文章平均质量分 71
书生·浦语大模型实战营笔记+作业
TAICHIFEI
上士闻道,勤而行之;中士闻道,若存若亡;下士闻道,大笑之。不笑不足以为道。
展开
-
第六课作业 OpenCompass 大模型评测
基础作业生成可视化文件:进阶作业备注:由于进阶作业较难,完成基础作业之后就可以先提交作业了,在后续的大作业项目中使用这些技术将作为重要的加分点!原创 2024-02-20 18:26:01 · 370 阅读 · 0 评论 -
第六课笔记 OpenCompass 大模型评测
本算法库的主要评测对象为语言大模型与多模态大模型。我们以语言大模型为例介绍评测的具体模型类型。基座模型:一般是经过海量的文本数据以自监督学习的方式进行训练获得的模型(如OpenAI的GPT-3,Meta的LLaMA),往往具有强大的文字续写能力。对话模型:一般是在的基座模型的基础上,经过指令微调或人类偏好对齐获得的模型(如OpenAI的ChatGPT、上海人工智能实验室的书生·浦语),能理解人类指令,具有较强的对话能力。原创 2024-02-20 18:26:31 · 1008 阅读 · 0 评论 -
第五课作业 LMDeploy 大模型量化部署实践
提交方式:在各个班级对应的 GitHub Discussion 帖子中进行提交。原创 2024-02-19 22:22:49 · 376 阅读 · 1 评论 -
第五课笔记 LMDeploy 大模型量化部署实践
TurboMind。原创 2024-02-19 22:20:43 · 919 阅读 · 1 评论 -
第四课作业-使用 XTuner 微调 InternLM-Chat-7B 模型(智能小助手)
将训练好后的模型应用部署到 OpenXLab 平台,参考部署文档请访问:https://aicarrier.feishu.cn/docx/MQH6dygcKolG37x0ekcc4oZhnCe。将训练好的Adapter模型权重上传到 OpenXLab、Hugging Face 或者 MoelScope 任一一平台。微调后(对自己的身份弟位有了清晰的认知)微调前(回答比较官方)原创 2024-02-03 00:56:01 · 371 阅读 · 1 评论 -
第四课笔记 XTuner 大模型单卡低成本微调实战
以数据集为例场景需求基于 InternLM-chat-7B 模型,用 MedQA 数据集进行微调,将其往医学问答领域对齐。此时,我们重新建一个文件夹来玩“微调自定义数据集”把前面下载好的internlm-chat-7b模型文件夹拷贝过来。别忘了把自定义数据集,即几个.jsonL,也传到服务器上。MSAgent 数据集每条样本包含一个对话列表(conversations),其里面包含了 system、user、assistant 三种字段。原创 2024-02-02 22:59:06 · 872 阅读 · 0 评论 -
第三课作业-基于 InternLM 和 LangChain 搭建你的知识库
基础作业:复现课程知识库助手搭建过程 (截图)在已完成 InternLM 的部署基础上,还需要安装以下依赖包:同时,我们需要使用到开源词向量模型 Sentence Transformer:(我们也可以选用别的开源词向量模型来进行 Embedding,目前选用这个模型是相对轻量、支持中文且效果较好的,同学们可以自由尝试别的开源词向量模型)首先需要使用 官方提供的 命令行工具。安装依赖:然后在和 目录下新建python文件 ,填入以下代码:下载 NLTK 相关资源我们在使用开源词向量模型构建开源词向原创 2024-01-17 19:49:56 · 820 阅读 · 0 评论 -
第三课笔记 基于 InternLM 和 LangChain 搭建你的知识库
第三课作业:https://blog.csdn.net/weixin_42035282/article/details/135653110参考:https://github.com/InternLM/tutorial/tree/main/langchain基础作业:复现课程知识库助手搭建过程 (截图)在已完成 InternLM 的部署基础上,还需要安装以下依赖包:同时,我们需要使用到开源词向量模型 Sentence Transformer:(我们也可以选用别的开源词向量模型来进行 Embedding,原创 2024-01-17 21:43:37 · 788 阅读 · 0 评论 -
第二课笔记+作业 轻松玩转书生·浦语大模型趣味Demo
Lagent 是一个轻量级、开源的基于大语言模型的智能体(agent)框架,支持用户快速地将一个大语言模型转变为多种类型的智能体,并提供了一些典型工具为大语言模型赋能。-使用 huggingface_hub python 包,下载 InternLM-20B 的 config.json 文件到本地(需截图下载过程)• 使用 InternLM-Chat-7B 模型生成 300 字的小故事(需截图)。开源的两个预训练模型:InternLM-7B和InternLM-20B。Lagent:智能体框架。原创 2024-01-17 21:25:23 · 368 阅读 · 0 评论 -
第一课笔记 书生·浦语全链条开源开放体系
参考:B站视频https://github.com/internLM/tutorial原创 2024-01-17 21:32:20 · 403 阅读 · 0 评论