- 博客(8)
- 收藏
- 关注
原创 我做了一个 macOS 菜单栏工具:专门收集 AI 编码过程中真正改过的文件,推荐给所有 OpenCode / Codex 用户
它会监听 AI 编码工具的真实事件流,把里面提到的文件路径收集起来,展示成一个本地文件列表,方便你后续继续查看、打开、定位和管理。有没有一个工具,能把 AI 真正提到过的文件,自动收集起来,然后以菜单栏应用的形式,随时可看、可筛选、可打开?它不是靠扫描你的项目目录来“猜”哪些文件可能有用,而是只接受 AI 事件里真实出现过的文件路径。说白了,这个工具更适合“把 AI 当正式开发搭档”的人,而不是只拿 AI 当临时问答工具的人。AI 一轮任务执行下来,改了很多文件,但你不一定第一时间知道“到底是哪些文件”。
2026-04-11 10:24:06
352
原创 浦语提示词工程实践
Prompt是一种用于指导以大语言模型为代表的生成式人工智能生成内容(文本、图像、视频等)的输入方式。它通常是一个简短的文本或问题,用于描述任务和要求。Prompt可以包含一些特定的关键词或短语,用于引导模型生成符合特定主题或风格的内容。例如,如果我们要生成一篇关于“人工智能”的文章,我们可以使用“人工智能”作为Prompt,让模型生成一篇关于人工智能的介绍、应用、发展等方面的文章。Prompt还可以包含一些特定的指令或要求,用于控制生成文本的语气、风格、长度等方面。
2024-08-13 12:44:29
1728
原创 OpenCompass 评测 InternLM-1.8B 实践
确保按照上述步骤正确安装 OpenCompass 并准备好数据集后,可以通过以下命令评测 InternLM2-Chat-1.8B 模型在 C-Eval 数据集上的性能。由于 OpenCompass 默认并行启动评估过程,我们可以在第一次运行时以 --debug 模式启动评估,并检查是否存在问题。在 --debug 模式下,任务将按顺序执行,并实时打印输出。接下来,我们将展示 OpenCompass 的基础用法,分别用命令行方式和配置文件的方式评测InternLM2-Chat-1.8B,展示书生浦语在。
2024-08-13 12:39:03
725
原创 XTuner微调个人小助手认知
对于全量微调的模型(full)其实是不需要进行整合这一步的,因为全量微调修改的是原模型的权重而非微调一个新的 Adapter ,因此是不需要进行模型整合的。比如我们这里微调的是书生·浦语的模型,我们就可以匹配搜索。在 PART 1 的部分,由于我们不再需要在 HuggingFace 上自动下载模型,因此我们先要更换模型的路径以及数据集的路径为我们本地的路径。在准备好了模型和数据集后,我们就要根据我们选择的微调方法结合微调方案来找到与我们最匹配的配置文件了,从而减少我们对配置文件的修改量。
2024-08-06 13:56:46
2038
1
原创 llamaindex+Internlm2-RAG实践
在data文件下添加文件下面内容为书生浦语的相关教程,你也可以直接访问 [InternLM](https://github.com/InternLM/Tutorial/blob/camp3/docs/L1/LlamaIndex/task.md)
2024-08-06 13:54:44
789
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅