书生浦语学习笔记
文章平均质量分 57
听课中的一些记录
亲爱的阿基米德^
这个作者很懒,什么都没留下…
展开
-
作业(5)
在InternStudio开发机进行以下操作,如果不是使用该服务器,需手动下载。原创 2024-01-24 20:31:08 · 506 阅读 · 1 评论 -
作业 (4)
使用 LMDeploy 以本地对话、网页Gradio、API服务中的一种方式部署 InternLM-Chat-7B 模型,生成 300 字的小故事(需截图)原创 2024-01-15 20:31:41 · 1282 阅读 · 1 评论 -
作业(2)
配置好前面的环境后,下载sentence-transformers模型。最终出现的效果与互动。原创 2024-01-09 18:44:23 · 385 阅读 · 0 评论 -
大模型听课笔记——书生·浦语(5)
LMDeploy是LLM是在英伟达设备上部署的全流程解决方案。包括模型轻量化、推理和服务。原创 2024-01-13 17:27:20 · 588 阅读 · 1 评论 -
大模型听课笔记——书生·浦语(1)
在ChatGPT发布之后,大模型成为热门关键词,也成为发展通用人工智能的重要途经。书生·浦语提供了轻量级(7B)、中量级(20B)与重量级(123B)的三种模型。原创 2024-01-04 00:04:52 · 443 阅读 · 0 评论 -
大模型听课笔记——书生·浦语(3)
大模型听课笔记——书生·浦语(3)基于 InternLM 和 LangChain 搭建你的知识库LLM具有许多有点,但同样也有着局限性:知识时效性受限专业能力有限定制化成本高1 针对上述问题,现在常用的大语言模型范式(检索增强生成 VS 微调)2 本节课主要围绕RAG来介绍利用LangChain来实现自己的RAG应用基于LangChain实现RAG流程3 构建向量数据库4 将InterLM接入LangChain5 Web demo的部署原创 2024-01-08 19:30:59 · 593 阅读 · 0 评论 -
大模型听课笔记——书生·浦语(4)
而由于训练成本太过昂贵,增量训练和指令跟随是两种常用的微调模式。Xtuner默认会开启则需要在启动时增加启动参数。原创 2024-01-11 09:53:19 · 634 阅读 · 1 评论 -
作业(3)——微调
数据集:./data/personal_assistant.json(数据集 .json文件格式)可以使用python脚本来生成训练数据集格式。原创 2024-01-12 17:21:38 · 1118 阅读 · 1 评论 -
作业(1)
基础作业:InternLM-Chat-7B 模型生成 300 字的小故事(需截图)hugging face 下载功能,使用 huggingface_hub python 包,下载 InternLM-20B 的 config.json 文件到本地(需截图下载过程)进阶作业(可选做)完成浦语·灵笔的图文理解及创作部署(需截图)完成 Lagent 工具调用 Demo 创作部署(需截图)原创 2024-01-08 17:08:46 · 389 阅读 · 0 评论 -
大模型听课笔记——书生·浦语(2)
本节课跟着教程来试着运行书生·浦语的各种demo,以下为运行的demo效果。原创 2024-01-07 10:47:18 · 416 阅读 · 0 评论 -
大模型听课笔记——书生·浦语(6)
书生浦语系列的最后一节课程笔记。评测的需求产生:不同种类的模型急剧增多,对模型的性能和能力边界探索的边界.原创 2024-01-23 19:39:06 · 427 阅读 · 1 评论