原理
Obsidian Copilot 是一款为 Obsidian 笔记软件设计的 AI 助手插件,它将 AI 技术(如 OpenAI 的 GPT 模型)无缝集成到 Obsidian 的笔记工作流中,为用户提供智能化的写作、知识管理和思考辅助功能。通过 Obsidian Copilot,用户可以在笔记中直接与 AI 进行交互,从而提升笔记的整理效率、写作质量和知识探索能力。
Obsidian Copilot 的作者是 Logan Yang,他是一位经验丰富的软件开发者和知识管理爱好者,致力于为 Obsidian 社区提供更智能、高效的工具。
Obsidian Copilot 中有两个地方需要配置大模型,分别是General Settings处和QA Settings 下的 Embedding Models 处。General Settings处配置的模型为 chat 模型,用于 chat 模式, Embedding Models 处配置的模型要求是 Embedding 模型,用于 Vault QA模式建立索引知识向量库。因此仅配置General Settings处的模型将只能使用 chat 模式,必须同步成功配置 Embedding Models 处的 Embedding 模型才能够有效激活Vault QA 模式**。**
Obsidian Copilot 可以通过 Ollama 模式支持本地模型,本文下面将介绍基于本地Ollama 来配置 Obsidian Copilot。
配置过程
安装Ollama
Mac 下执行如下命令安装:
brew install ollama
其他操作系统请自行到 ollama 网站下载安装。
Ollama 安装 chat 模型和 embedding 模型
启动 ollama:
ollama serve
在一个新的 bash下安装 chat 模型,这里使用mistral为例,读者可以根据自己情况选择其他模型,如果ollama下已有下载过的模型,可以跳过此步骤:
ollama run mistral
继续安装 embedding 模型,这里使用nomic-embed-text
ollama pull nomic-embed-text
pull命令拉取模型后,ollama 服务会自动启动和管理模型,不需要再显式的启动模型。
关联obsidian重新启动 Ollama
关闭 ollama 服务, 使用如下命令重新启动 ollama:
OLLAMA_ORIGINS=app://obsidian.md* ollama serve
重新启动后,Ollama 端准备完毕,可转入 Obsidian 进行后续设置。
Obsidian Copilot 安装
在 Community Plugins 中搜索安装 Obsidian Copilot 插件。打开 Obsidian Copilot 的设置页面。
Obsidian Copilot chat模型配置
在 General Setting 标签下点开 Add Custom Model
- Model Name 填写 mistral
- Provider 填写 ollama
- Base URL 和 API Key 为空
可以点击 Verify Connection,显示 Successful 后即可点击 Add Model 添加。
然后在上方的列表中选择刚添加的 mistral 模型:
完成 chat 模型设置。
Obsidian Copilot Embedding 模型配置
向下拉 Obsidian Copilot 的配置页,在 QA Setting 下点开 Add Custom Model
- 在 Model Name 处填写 nomic-embed-text
- Provider 处填写 ollama,其余同上置空
点击 Verify Connection 测试,这里可能会显示失败,先点击 Add Model。
在上方的列表中选择刚添加的nomic-embed-text embedding 模型,同时勾选对应的 CORS:
完成 Embedding 设置。此时激活Vault QA 模式有可能会报 index 失败的错误,先无视。打开 Command+P 的命令面板,选择Copilot: Force re-index vault for QA,此时会进入到 index 过程中,右上角会报 index 的进度,等待完成(如果还是报错,可以关闭ollama,再使用上述命令重启ollama服务)
此时已完成将 vault 中所有的 md文件建成向量化知识库。默认对话框为chat模式,可以切换为"vault QA(basic)",如图红线所示。并在 chat 模型处选择我们在 Ollama 中安装的 mistral,即可正常对所有笔记的知识库进行问答:
经测试,Ollama 模型在 Mac M1 芯片电脑上问答的回复时间约为 40s,如想要更快的速度,可以按下个章节的方式配置商业模型。
商业Chat模型配置
Datapipe 是一个中转的大模型服务,提供 GPT-4o 等大模型服务,基础版费用为 20 元/月,可满足一般人的使用,既可以在网页端按照 chatGPT 的形式使用,也可以使用 API 的方式使用,如这里用到的作为 chat 模型整合进入 Obsidian Copilot。可以使用 https://chat.datapipe.app/register?referral=KHXJXD 链接注册,会附送积分。在 Obsidian Copilot 的设置页,在 General Setting 下进行设置,Model Name 填写 gpt-4o,Provider 选择 3rd party (openai-format),Base URL 填写 https://chat-api.datapipe.app/v1 , API Key 填写刚获取的 key,选择 Add Model:
在 General Setting 下的模型列表中选择刚添加的 gpt-4o,并勾选 CORS,
在 Chat 窗口的 chat 模型选择更添加的 gpt-4o,然后便可以正常使用了,速度会比 Ollama 中的 Chat 模型更快:
AI大模型学习福利
作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
大模型&AI产品经理如何学习
求大家的点赞和收藏,我花2万买的大模型学习资料免费共享给你们,来看看有哪些东西。
1.学习路线图
第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;
第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;
第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;
第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;
第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;
第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。
2.视频教程
网上虽然也有很多的学习资源,但基本上都残缺不全的,这是我自己整理的大模型视频教程,上面路线图的每一个知识点,我都有配套的视频讲解。
(都打包成一块的了,不能一一展开,总共300多集)
因篇幅有限,仅展示部分资料,需要点击下方图片前往获取
3.技术文档和电子书
这里主要整理了大模型相关PDF书籍、行业报告、文档,有几百本,都是目前行业最新的。
4.LLM面试题和面经合集
这里主要整理了行业目前最新的大模型面试题和各种大厂offer面经合集。
👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓