0. 前言
0.1 效果展示
可以使用[[]]引用笔记库里的任何笔记对 AI 进行提问了
可以让 AI 对你的笔记指出修改意见
还可以把 AI 生成的回答一键保存为新的笔记
甚至还可以通过 Vault QA 功能对整个笔记库进行检索和提问
还可以开启联网搜索功能(需要进一步设置)
你知道这意味着什么吗?我的朋友们。
意味着你可以用 AI 让你的个人知识库实现自我增殖了!
0.2 总体思路
- 使用obsidian 插件:copilot (可以理解为 obsidian 的私人 AI 助理)
- 在 copilot 中接入火山引擎提供的 deepseek R1大模型 API(比硅基流动的响应速度要快)
1. 安装 copilot 插件
在 obsidian-设置-第三方插件-社区插件市场-浏览-搜索 copilot 插件,安装并启用
需要科学上网。或者其他不需要科学上网的方法,可以自行搜索。
2. 配置火山引擎
2.1 注册账号
首先注册火山引擎的账号
邀请码填34JMPROR,可以获得免费的 tokens
(笔者也能得到,就当是向我交学费吧。笑 :)
务必在注册时即填写邀请码
火山方舟大模型体验中心-火山引擎
注册完就填不辽了。悲 :(
2.2 创建接入点
进入大模型-火山方舟-控制台
在线推理-创建推理接入点-自定义推理接入点-创建推理接入点
输入点名称可以自己起
模型选择 deepseekR1
如果是第一次使用,红框位置会弹出一则消息
点击立即开通,然后完成实名认证后回到上个页面
点击确认接入
接入好之后在控制台的 在线推理-自定义推理接入点 就能看到刚才创建的接入点
3. 配置 copilot 的 Chat Model
3.1 copilot 设置
打开 Obsidian-copilot 设置 选择 model
在 Chat Model 下面点击 add custom model 按钮
这几个参数分别怎么填见下文
3.1.1 Model Name
火山方舟-控制台-在线推理-自定义推理接入点
复制红框位置的灰色小字
这个就是 Model Name
一定要复制,不要自己填
3.1.2 Display Name
这个可以自己起名
叫 Deepseek R1 671B 即可
3.1.3 Provider
下拉选择 OpenAI Format
3.1.4 Base URL
直接填↓:
https://ark.cn-beijing.volces.com/api/v3
3.1.5 API Key
火山方舟-控制台-API Key 管理
点击创建 API Key
然后复制 Key 填入 copilot 设置
3.1.6 Model Capabilities
只需要勾选 Enable CORS 即可,上面三个都不要勾选
3.1.7 Verify
然后点击 verify 按钮。
点完不要关闭这个窗口!
等待一会儿后右上角会弹出 successful… 的信息。
然后点击 Add Model
3.2 其他配置
记得在 Obsidian-copilot 设置-Model 中把刚才添加的模型勾选上
3.2.1 参数设置
这三个参数对于生成的回答也很重要,视个人需要填写
- Temperature:值越高则生成回答的随机性和创造性越强,但出错的概率也会提高
- Token limit:决定生成回答的长度限制,一个汉字约是0.3token
- Conversation turns in context:即最大的上下文轮数
3.2.2 Basic设置
然后回到 Obsidian-copilot 设置-Basic
把 Default Chat Model 改为 Deepseek R1即可
3.3 成果
在 obsidian 面板中点击左侧 侧边栏的该图标即可打开 copilot 面板
配置到这里之后就可以使用[[]]引用笔记库里的任何笔记对 AI 进行提问了,还可以把 AI 生成的回答一键保存为新的笔记
此时的 AI 回答还不能联网搜索资料,如需要联网搜索功能,见下文
如果想要使用 copilot 的 Vault QA 功能(即让 AI 根据整个笔记库生成回答),则需要配置 Embedding Model,见下文
4. 实现 deepseekR1联网搜索功能
4.1 在火山方舟创建我的应用
注意:联网功能需要额外收费。和大模型 API 调用产生的 tokens 费用并不是一起结算的建议先在火山引擎的控制台充值1块钱。
首先进入 火山方舟-控制台-我的应用
点击创建应用
选择 零代码-单聊
名称可以自己起
描述,封面不需要填
推理接入点选择刚才创建的 deepseekR1的接入点
关键是打开联网内容插件
内容源默认的即可
引用条数调到10
点击高级配置
智能改写一定要打开
调用方式推荐使用 强制开启。(因为上文已经配置过了一个没有联网功能的 deepseek 聊天模型,在调用 AI 时可以很方便地切换到没有联网功能的模型)
参考资料回复建议选择“参考遵守”或者自定义回复
最大参考资料 Token 数拉到最大即可,一般搜索一次不会用完,不用担心浪费 token
配置好后点击右上角的发布按钮
然后回到 火山方舟-控制台-我的应用
这里就会多出来刚才配置好的应用
复制红框里的应用 ID
4.2 copilot 配置
然后打开 Obsidian-copilot 设置-Model-在 Chat Models 下方点击 Add Custom Model
把刚才复制的 ID 粘贴到 Model Name 栏
勾选下方的 Websearch 和 EnableCORS
Display Name 自己填即可
其余参数和上文完全一致:
Provider 选 OpenAI Format
Base URL:https://ark.cn-beijing.volces.com/api/v3/bots
(也就是 base URL 比上文的 baseURL 多了个 bots)
API key 的值和上文是完全一样的
参数填好后,点击 verify
点完不要关闭这个窗口!
等待一会儿后右上角会弹出 successful… 的信息。
然后点击 Add Model
记得在聊天框中切换成刚才添加的带联网搜索功能的模型
推荐在 copilot 设置-Basic 当中
把 Default chat model 改成刚才添加的带联网搜索功能的模型
这样启动 obsidian 并打开 copilot 窗口后默认使用的聊天模型就是刚才配置的带联网搜索功能的 deepseekR1模型了
5. 配置 copilot 的 Embedding Model
这个模块主要影响的是 Vault QA 功能。
也就是让 AI 在你的整个 obsidian 库中检索信息并生成回答。
如果不需要这个功能可以暂时不配置这里。
Embedding Model 即“嵌入式模型”。作用是将离散的实体(如单词、句子、图片)转化为数值向量,使计算机能够通过数学运算捕捉语义关联和特征信息
简单理解就是用来 带着用户输入的信息到笔记库当中寻找有关联的内容
即“索引”功能。
Embedding Model 的性能越好,则在 Vault QA 功能中索引到的信息关联度越大。
上文配置的 deepseek R1 是 Chat Model,不支持 Embedding
需要选择另外一个模型作为 Embedding Model
5.1 接入Doubao-embedding-large
进入火山方舟-控制台-在线推理-创建推理接入点-自定义推理接入点-创建推理接入点
名称描述随便填,模型选择 Doubao-embedding-large
按照提示免费开通模型后
点击 确认接入 即可
回到火山方舟-控制台-在线推理-自定义推理接入点
找到刚才创建好的 Doubao-embedding-large(不要找成了 deepseek R1)
复制红框位置的灰色小字
这个就是 Model Name
然后打开 Obsidian-copilot 设置-Model
下滑找到 Embedding Models 再下滑点击 add custom Model
Model Name :粘贴上文已经复制好的 Model Name
Display Name 可以自己起
Provider 选择 OpenAI format
Base URL:https://ark.cn-beijing.volces.com/api/v3
(BaseURL 与第一个模型是一样的)
API key 值跟上文完全一致
勾选 Enable CORS,其它不勾选
参数都填好后点击 verify 按钮
点完不要关闭这个窗口!
等待一会儿后右上角会弹出 successful… 的信息。
然后点击 Add Model
然后回到 Obsidian-copilot 设置-Basic
把 Embedding Model 改成刚才添加的模型
在弹出的对话框点继续
即配置成功
6. 注意事项
6.1 记得充值
联网搜索要额外收费,欠费会自动停止联网搜索功能。
注册会免费送大模型 API 的 tokens,没了就又要充值。
6.2 已知bug
在聊天框切换聊天模型有时并不会起效,需要重新启动 obsidian
因此最好把 default chat model 设为最常用的那个,不要频繁切换