- 博客(13)
- 收藏
- 关注
原创 大模型听课笔记——书生·浦语(6)
书生浦语系列的最后一节课程笔记。评测的需求产生:不同种类的模型急剧增多,对模型的性能和能力边界探索的边界.
2024-01-23 19:39:06 427 1
原创 搭建VirtualHome环境
再次执行还会提醒python的版本低的问题,但是之前试过高版本的python会有其他问题,所以此处选择将setup.py里最后一句的python版本限制改为3.9,然后可以成功安装。设置暂时的环境变量,OPENAI_API_KEY在我的电脑上已经是系统变量了,所以不进行设置。接下来需要VirtualHome的相关环境准备,这一部分官网的操作写的比较含糊。所以想搭建一下环境,但是查了一下网站上的过程比较少,所以决定记录一下。会报错,报错信息显示他需要有一个src文件夹,但下载下来的文件里并没有。
2024-01-18 16:36:23 1332 10
原创 作业 (4)
使用 LMDeploy 以本地对话、网页Gradio、API服务中的一种方式部署 InternLM-Chat-7B 模型,生成 300 字的小故事(需截图)
2024-01-15 20:31:41 1282 1
原创 作业(3)——微调
数据集:./data/personal_assistant.json(数据集 .json文件格式)可以使用python脚本来生成训练数据集格式。
2024-01-12 17:21:38 1118 1
原创 大模型听课笔记——书生·浦语(4)
而由于训练成本太过昂贵,增量训练和指令跟随是两种常用的微调模式。Xtuner默认会开启则需要在启动时增加启动参数。
2024-01-11 09:53:19 634 1
原创 大模型听课笔记——书生·浦语(3)
大模型听课笔记——书生·浦语(3)基于 InternLM 和 LangChain 搭建你的知识库LLM具有许多有点,但同样也有着局限性:知识时效性受限专业能力有限定制化成本高1 针对上述问题,现在常用的大语言模型范式(检索增强生成 VS 微调)2 本节课主要围绕RAG来介绍利用LangChain来实现自己的RAG应用基于LangChain实现RAG流程3 构建向量数据库4 将InterLM接入LangChain5 Web demo的部署
2024-01-08 19:30:59 593
原创 作业(1)
基础作业:InternLM-Chat-7B 模型生成 300 字的小故事(需截图)hugging face 下载功能,使用 huggingface_hub python 包,下载 InternLM-20B 的 config.json 文件到本地(需截图下载过程)进阶作业(可选做)完成浦语·灵笔的图文理解及创作部署(需截图)完成 Lagent 工具调用 Demo 创作部署(需截图)
2024-01-08 17:08:46 389
原创 大模型听课笔记——书生·浦语(1)
在ChatGPT发布之后,大模型成为热门关键词,也成为发展通用人工智能的重要途经。书生·浦语提供了轻量级(7B)、中量级(20B)与重量级(123B)的三种模型。
2024-01-04 00:04:52 443
原创 Ubuntu下载Matterport3DSimulator时出现nvidia-docker:未找到命令
跟着官方的下载步骤(https://github.com/peteanderson80/Matterport3DSimulator)使用docker建立(Building using Docker)时,执行。一开始以为是自己的nviidia docker没有按前面的要求配好,折腾了很久发现是nvidia-docker指令已经被弃用了。执行以下指令来代替上述指令完成容器运行。
2023-10-24 16:59:38 370 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人