博客目录
-
- 前言
- 1.客户端安装
- 2. MCP 服务器配置
-
- 2.1 MCP 远程服务配置
- 2.2 MCP 服务测试
- 2.3 MCP 本地服务测试
- 3.内网穿透远程访问
-
- 3.1 本地安装 ollama 与 qwen 模型
- 3.2 安装 cpolar 内网穿透
- 4. 配置公网地址
- 5. 创建固定公网地址
- 总结
前言
最近 AI 领域真是隔几天就有一个新热度,随着越来越多的使用 MCP 制作的 Agent 产品出现,MCP 这个新名词也频繁刷屏,有着大火的趋势,那么什么是 MCP 呢?
MCP 是一种接口协议,由 AI 大模型公司 Anthropic 在 2024 年 11 月推出,它的全称是 Model Context Protocol,即模型上下文协议!它是连接 API 和大模型的桥梁,通过 MCP,我们可以让 AI 模型能够用一种通用的语言和各种不同的工具与服务进行交流,比如浏览器,Excel 表格,网页截图等等。
恰好笔者最近使用的 Cherry Studio 客户端就支持 MCP 功能,今天就和大家分享一下如何在 Cherry Studio 中配置 MCP 服务器,并让 AI 自动工作,为你打造功能更强大的智能助手。而且结合 cpolar 内网穿透使用,还能轻松实现远程调用 AI 为你服务,无需公网 IP,二次部署大模型,也不用准备云服务器那么麻烦。
1.客户端安装
首先,我们需要访问 Cherry Studio 的 github 主页下载 Windows 版本客户端:
下载地址:https://github.com/CherryHQ/cherry-studio/releases
选择好安装位置后,即可快速安装:
安装后打开 Cherry Studio 客户端,可以看到界面非常简洁明了。
本例中使用的版本号为:V1.1.8
2. MCP 服务器配置
重启打开客户端后,点击设置-MCP 服务器,可以看到需要安装 UV 与 Bun 环境:
直接点击安装即可,一般情况安装成功后,这两个提示就不会显示了:
如果出现 UV 怎么都安装不上的情况,可能是目前这个提示有 BUG,先继续往下进行。
2.1 MCP 远程服务配置
接下来我们可以访问这个网站来搜索一些 MCP Server 进行测试:https://mcp.so/
这里以 fetch 这个能让 AI 抓取网页内容的服务为例,点开它:
在网页右侧能看到使用SSE URL 方式连接服务的代码:
复制代码中 URL 后的网址:https://router.mcp.so/sse/bw9c1pm8o377c8
现在我们回到 cherry studio 客户端的 mcp 服务器界面,点击添加服务器:
填写名称,类型,刚才复制的 URL 地址点击确定:
可以看到服务器添加成功的提示:
2.2 MCP 服务测试
首先我们要在客户端设置中配置模型服务,拿硅基流动的模型服务进行举例,点击底部的管理按钮,能看到这里有几十种大模型可以调用,我们要选择模型名称后带扳手图标的,即支持函数调用的模型。
详细的模型配置教程可以查看这篇文章:cherry studio 配置模型服务
现在我们回到客户端首页,点击添加助手或者使用默认助手都可以:
本例以使用默认助手为例演示,点击顶部的模型服务切换:
可以看到刚才添加的模型,选择它:
选择好模型后,在聊天框底部能看到 MCP 服务器图标和启动服务开关:
在使用服务前,我们需要把这个开关打开:(每次使用前都要检查一下是否开启)
好的,现在我们就可以在 Cherry Studio 中使用 MCP 服务让 AI 自动帮我们访问网页来替我们分析问题了:
可以看到,给出了问题的回复。如果你经过提问后,回复的是错误代码,那么有可能是因为你要求 MCP 服务访问的网站禁止 AI 抓取,可以换一个网站试试。
需要注意的是使用 SSE 类型的 MCP 服务器是运行在远程服务器上,优点是配置简单,无需复杂的本地环境搭建,即可快速上手。但因为是远程运行,它无法像 STDIO 那样直接访问本地资源。但在获取云端数据、调用在线 API 等方面,SSE 类型表现出色,能够为你提供丰富的外部信息支持。
2.3 MCP 本地服务测试
现在我们来演示一下,如何在添加服务器时使用 STDIO 类型进行配置,这一类型的优势是可以在本地运行 MCP 服务,能够直接访问本机文件和应用程序,实现 AI 与本地资源的深度融合。比如,你可以让 AI 直接读取本地的文档、表格,进行数据分析和内容提取;或者调用本地的绘图软件,根据你的描述生成相应的图像。但需要注意的是,使用 STDIO 类型需要提前配置好 Python 和 NodeJS 环境,以确保服务的稳定运行。
这里我们添加一个filesystem
服务的 MCP 工具进行 STDIO 类型的配置演示:
首先我们进入 MCP 服务配置,点击 NPX 包列表后边的搜索,输入@modelcontextprotocol/server-filesystem 进行搜索,然后点击添加服务器:
我们需要在弹出框中编辑服务器信息,大部分的内容都已经自动填好了,我们只需要在参数中添加你打算操作的目录地址即可,我这里以 D:\ai 路径为例,点击确定:(注意,每个参数需单独占一行)
可以看到服务器添加成功提示:
再次回到聊天助手界面,这次在聊天框底部的 MCP 服务器图标中,我们能看到在 fetch 服务下方新增了一个刚才添加的filesystem服务:
同样,在向 AI 提出要求前我们需要手动打开这个开关:
现在我让它帮我在刚才参数中给出的 D:\ai 路径下创建一个名为 mcp 学习笔记的 txt 格式文档:
访问这个路径,可以看到确实创建成功了:
现在,关于在 cherry studio 中使用SSE 类型和STDIO 类型配置 MCP 服务就介绍完了,大家可以根据自己的实际需求,在配置 MCP 服务时选择合适的类型。
3.内网穿透远程访问
现在我们已经能够使用 Cherry Studio 客户端中的 MCP 服务器功能来实现超多 AI 功能带来的便利,但是如果想实现不在同一网络环境下,也能随时随地在线使用 Cherry Studio 客户端远程调用本地部署的 AI 大模型来运行 MCP 服务,那就需要借助 cpolar 内网穿透工具来实现公网访问了!
在上边我们配置模型服务时,使用的是硅基流动的 API 秘钥调用的远程大模型来运行 MCP 服务,但是这个方便是需要根据提问回答消耗的 tokens 来计费的,如果想节省成本,那使用本地部署的大模型(需支持函数调用)是个不错的解决办法。而且结合 cpolar 内网穿透工具使用,还能轻松实现远程访问,无需二次部署,也无需公网 IP。
3.1 本地安装 ollama 与 qwen 模型
本例使用在本地安装好的 Ollama 和支持函数调用的 qwen2.5-coder:7b 大模型进行演示:
Windows 安装 Ollama 可以查看这篇文章:Windows 安装 Ollama
然后在 cmd 终端中执行下方命令安装并启动大模型:
ollama run qwen2.5-coder:7b
最后想要远程调用大模型,需要进行对 Ollama 进行一下环境变量设置。
打开 cmd 终端,执行下面两个命令:
setx OLLAMA_HOST "0.0.0.0"
setx OLLAMA_ORIGINS "*"
然后再使用 cpolar 为它配置一个公网地址即可解决这个问题:
3.2 安装 cpolar 内网穿透
接下来介绍一下如何安装 cpolar 内网穿透,过程同样非常简单:
首先进入 cpolar 官网:cpolar 官网地址: https://www.cpolar.com
点击免费使用
注册一个账号,并下载最新版本的 cpolar:
登录成功后,点击下载 cpolar 到本地并安装(一路默认安装即可)本教程选择下载 Windows 版本。
4. 配置公网地址
cpolar 安装成功后,在浏览器上访问 http://localhost:9200,使用 cpolar 账号登录,登录后即可看到配置界面,结下来在 WebUI 管理界面配置即可。
接下来配置一下 本地 ollama 服务 的公网地址:
登录后,点击左侧仪表盘的隧道管理——创建隧道,
- 隧道名称:ollama1(可自定义命名,注意不要与已有的隧道名称重复)
- 协议:选择 http
- 本地地址:11434 (本地访问的地址)
- 域名类型:选择随机域名
- 地区:选择 China Top
隧道创建成功后,点击左侧的状态——在线隧道列表,查看所生成的公网访问地址,有两种访问方式,一种是 http 和 https:
现在我们使用上面的任意一个公网地址,在其他电脑中的 Cherry Studio 客户端的 ollama 模型服务的 API 地址里粘贴:
点击下方管理,能看到刚才本地安装支持函数调用的 qwen2.5-coder:7b 模型,点击添加:
添加后,如果发现模型名称后边没有代表支持函数调用的扳手图标,我们可以点击添加后模型名称后的设置按钮,然后点击更多设置:
手动勾选这个模型支持函数调用:
确认勾选:
保存:
然后,我们同样打开 MCP 服务器,搜索@modelcontextprotocol/server-filesystem 这个服务,点击添加服务器:
这次我们在参数中,填写一个新的路径进行测试:
配置完毕,现在回到 cherry studio 的聊天助手界面,可以看到,我们使用 cpolar 内网穿透工具成功实现远程调用我们在另一台电脑上本地部署的 qwen2.5-coder:7b 大模型,并且能够使用 MCP 服务对 AI 进行提问:
可以看到,同样成功创建:
小结
如果我们需要长期异地使用 cherry studio 客户端远程访问本地部署的大模型运行 mcp 解决问题,由于刚才创建的是随机的地址,24 小时会发生变化。另外它的网址是由随机字符生成,不容易记忆。如果想把域名变成固定的二级子域名,并且不想每次都重新创建隧道来访问本地大模型,我们可以选择创建一个固定的公网地址来解决这个问题。
5. 创建固定公网地址
我们接下来为其配置固定的 HTTP 端口地址,该地址不会变化,无需像随机公网地址一样每天修改服务器地址。
配置固定 http 端口地址需要将 cpolar 升级到专业版套餐或以上。
登录 cpolar 官网,点击左侧的预留,选择保留二级子域名,设置一个二级子域名名称,点击保留,保留成功后复制保留的二级子域名名称:
保留成功后复制保留成功的二级子域名的名称:csollama1,大家也可以设置自己喜欢的名称。
返回登录 Cpolar web UI 管理界面,点击左侧仪表盘的隧道管理——隧道列表,找到所要配置的隧道:ollama1,点击右侧的编辑:
修改隧道信息,将保留成功的二级子域名配置到隧道中
- 域名类型:选择二级子域名
- Sub Domain:填写保留成功的二级子域名:csollama1
点击更新
(注意,点击一次更新即可,不需要重复提交)
更新完成后,打开在线隧道列表,此时可以看到公网地址已经发生变化,地址名称也变成了固定的二级子域名名称的域名:
最后,我们使用上面的任意一个固定公网地址,粘贴到 Cherry Studio 客户端的 ollama 模型服务的 API 地址里:
返回聊天助手界面,同样能看到在另一台电脑本地部署的 qwen2.5-coder:7b 模型,并使用 MCP 服务让 AI 远程帮你解决问题。
总结
通过以上步骤,我们实现了在 Windows 系统电脑上使用 Cherry Studio 客户端配置 MCP 服务,并使用 cpolar 内网穿透工具轻松实现在异地公网环境中也能使用远程访问本地部署的 AI 大模型来运行 MCP 服务解决问题,并为本地部署的服务配置固定不变的二级子域名公网地址的全部流程。
经过简单测试,Cherry Studio 这款好用的 AI 工具支持了 MCP 服务之后功能更强大了,而结合 cpolar 内网穿透工具实现远程调用则能更好的节约成本,提高效率。另外,Cherry Studio 针对个人用户免费,企业用户请联系官方合作。也非常期待 MCP 后续的发展,感谢您的观看,有任何问题欢迎留言交流。
觉得有用的话点个赞
👍🏻
呗。
❤️❤️❤️本人水平有限,如有纰漏,欢迎各位大佬评论批评指正!😄😄😄💘💘💘如果觉得这篇文对你有帮助的话,也请给个点赞、收藏下吧,非常感谢!👍 👍 👍
🔥🔥🔥Stay Hungry Stay Foolish 道阻且长,行则将至,让我们一起加油吧!🌙🌙🌙
如何学习AI大模型?
大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业
?”“谁的饭碗又将不保了?
”等问题热议不断。
不如成为「掌握AI工具的技术人
」,毕竟AI时代,谁先尝试,谁就能占得先机!
想正式转到一些新兴的 AI 行业,不仅需要系统的学习AI大模型。同时也要跟已有的技能结合,辅助编程提效,或上手实操应用,增加自己的职场竞争力。
但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高
那么针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料
分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程
等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓
AI大模型学习福利
作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
大模型&AI产品经理如何学习
求大家的点赞和收藏,我花2万买的大模型学习资料免费共享给你们,来看看有哪些东西。
1.学习路线图
第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;
第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;
第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;
第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;
第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;
第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。
2.视频教程
网上虽然也有很多的学习资源,但基本上都残缺不全的,这是我自己整理的大模型视频教程,上面路线图的每一个知识点,我都有配套的视频讲解。
(都打包成一块的了,不能一一展开,总共300多集)
因篇幅有限,仅展示部分资料,需要点击下方图片前往获取
3.技术文档和电子书
这里主要整理了大模型相关PDF书籍、行业报告、文档,有几百本,都是目前行业最新的。
4.LLM面试题和面经合集
这里主要整理了行业目前最新的大模型面试题和各种大厂offer面经合集。
👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓