openRouter 是一个AI大模型API的聚合网站。
客户端使用MCP协议对接AI大模型有两种方式,分别是
Function Call 工具调用功能
system prompt 系统提示词功能
其中 cherry studio 使用的是Function Call 工具调用功能(有个小扳手)
cline 使用的是system prompt 系统提示词功能
在 Cherry Studio 中使用 MCP
准备工作:安装 uv、bun
在 设置 - MCP 服务器 中,点击 安装 按钮,即可自动下载并安装。因为是直接从 GitHub 上下载,速度可能会比较慢,且有较大可能失败。安装成功与否,以下文提到的文件夹内是否有文件为准。
uv是一个ptyhon的运行环境
Bun 是一个类似nodejs的运行环境
这里我再安装的过程中开了梯子,安装完成以后直接就再对应目录下找到了,如果找不到,可以按照如下操作重新安装一下。
可执行程序安装目录:
Windows: C:\Users\用户名.cherrystudio\bin
安
查询是否再这个目录下找到了安装号的uv.exe uvx.exe bun.exe
无法正常安装的情况下:
可以将系统中的相对应命令使用软链接的方式链接到这里,如果没有对应目录,需要手动建立。也可以手动下载可执行文件放到这个目录下面:
Bun: https://github.com/oven-sh/bun/releases
UV: https://github.com/astral-sh/uv/releases
调用DeepSeek 模型
打开设置,找到deepseek,将deepseek的API密钥添加到这里,然后启用。
配置 MCP 服务器
1、打开 Cherry Studio 设置。
2、找到 “MCP 服务器” 选项。
3、点击 “添加服务器”。
将 MCP Server 的相关参数填入(参考链接)。可能需要填写的内容包括:
名称:自定义一个名称,例如 fetch-server
类型:选择 STDIO
命令:填写 uvx
参数:填写 mcp-server-fetch
(可能还有其他参数,视具体 Server 而定)
5、点击“确定”保存。
note:完成上述配置后,Cherry Studio 会自动下载所需的 MCP Server - fetch server。下载完成后,我们就可以开始使用了!
在聊天框中启用 MCP 服务
在聊天框看到启用 MCP 服务的按钮,需要满足以下条件:
需要使用支持函数调用(在模型名字后会出现扳手符号)的模型
只有打开这里,返回到聊天框里才能找到启用MCP服务的小按钮
cherry studio也可以使用本地的模型进行使用,不过暂时还没有使用它和MCP服务结合起来。
参考链接
https://docs.cherry-ai.com/advanced-basic/mcp
MCP服务调用网址
https://github.com/modelcontextprotocol/servers/tree/main/src/fetch