无穹玩法专栏旨在探索AI应用的无限可能,借助无问芯穹大模型服务平台(GenStudio)提供的高性能推理加速API,推动创新加速。
本文将围绕MCP协议及其在Dify平台中结合无问芯穹大模型服务平台(GenStudio)推理加速API,打造功能强大的个人超级助手,展示MCP协议如何统一多工具调用,提升AI应用的智能化和效率。
MCP协议简介
MCP(模型上下文协议) 是由Anthropic提出的开放标准协议,旨在打破AI模型与外部数据源、工具之间的壁垒,实现统一、标准化的双向交互接口。它让AI模型像使用“USB-C接口”一样,轻松调用各种外部服务和工具,极大提升开发效率和应用灵活性,
无问芯穹大模型服务平台(GenStudio)提供高性能推理加速API,资源充足,确保 AI 应用的智能、稳定性。涵盖DeepSeek V3/R1、QWQ32B、Qwen2.5-VL等最新模型,支持文本、图像、视频等多种模态,以及Jina/bge等sota嵌入、重排模型等。在 cloud.infini-ai.com 完成注册后,可无门槛使用基础免费版(含API调用),其中QWQ-32B等模型支持 function call。
结合MCP协议,无问芯穹模型推理加速API不仅提升AI应用的推理速度,还能无缝调用多种外部工具,实现复杂任务的智能协作,极大拓展AI应用场景。
环境准备与插件安装
1、访问Dify平台
访问Dify控制台(https://cloud.dify.ai/apps)搭建工作空间,配置无问芯穹大模型服务平台(GenStudio)的API Key,完成模型服务接入。
a.在 Dify 控制台,点击右上角头像,点击设置。
b.在左侧点击模型提供商,找到无问芯穹。
c.等待插件安装完成后,为插件配置无问芯穹大模型服务平台(GenStudio) API Key。
d.在 Dify 系统模型设置中配置无问芯穹大模型服务平台(GenStudio)提供的模型。
2、安装mcp_server插件
在Dify插件市场搜索“MCP SSE”插件,点击安装
获取外部MCP服务
-
高德地图MCP服务
在高德地图开放平台(https://lbs.amap.com/api/mcp-server/create-project-and-key)注册应用,完成实名认证,获取MCP服务器密钥,用于地图和天气数据调用。
-
Zapier MCP服务
通过Zapier MCP平台,可以获取集成7000+应用的MCP Server URL,支持邮件、搜索、CRM等多种操作,极大丰富助手功能。这里我们展示获取搜索服务,可以依次注册→点击生成网站,并复制URL→点击编辑MCP操作→添加新操作→新增搜索Tavily服务
搭建个人MCP Agent超级助手
1、创建Agent应用
在Dify工作室中新建Agent类型应用,例如命名为“超级助手”。
2、配置Agent助手
-
设置提示词,定义助手交互逻辑。
-
添加工具「MCP SSE」,分别添加获取MCP工具列表和调用MCP工具,分别配置高德地图MCP服务和Zapier MCP服务,按以下格式填写对应的URL。
-
选择无问芯穹推理加速模型服务,确保高效智能推理。
在添加工具这个步骤中,依次设置2个mcp server服务的URL,sever_name1对应高德地图MCP服务,需将URL中的key替换为前置步骤获取的KEY;server_name2对应Zapier MCP服务,需将url替换为前置复制的URL。
{ "server_name1": { "url": "https://mcp.amap.com/sse?key=前面步骤获取的高德KEY", "headers": {}, "timeout": 60, "sse_read_timeout": 300 }, "server_name2": { "url": "https://actions.zapier.com/mcp/sk-"}}
3、测试Agent功能
-
通过对话测试地图和天气查询功能,Agent都成功调用了对应的MCP服务,实现地图和搜索服务。
a.地图MCP服务测试
如图所示,模型调用地图MCP服务,并给出了正确的结果
b.搜索MCP服务测试
在提出「无问芯穹M×N的架构指的是」,Agent正确调用搜索服务,并返回结果
通过在Dify平台安装mcp_server插件,结合无问芯穹推理加速API和MCP协议,开发者可以轻松打造功能强大的个人超级助手,实现地图、天气、搜索、邮件等千百工具的智能调用。MCP协议的标准化和无问芯穹的高性能推理API能力相辅相成,极大提升了AI应用的智能化水平和开发效率。
(PS:以上mcp agent实现是在 Dify react模式下进行,若是结合其他AI应用、开源框架+MCP Server+无问芯穹大模型服务,开发过程中遇到问题,欢迎加入社群一起交流。)
无问芯穹大模型服务现已支持在多个AI应用、开发平台中使用。可在网页或本地安装以下应用,接入无问芯穹的 API 后(可自定义添加这两款模型),即可体验 DeepSeek V3/R1、QWQ32B、Qwen2.5-VL等最新模型高性能推理加速版API。
-
AI应用:Cherry Studio、LobeChat、NextChat
-
代码应用:Cursor、Cline
-
AI应用开发平台:Dify
-
Agent项目:LangManus
-
AI 笔记:Obsidian AI
-
翻译插件:沉浸式翻译
-
浏览器插件:Sider、Page Assist
更多场景与应用案例接入教程可参考:https://docs.infini-ai.com/posts/#tag=integrations
欢迎更多AI应用合作伙伴加入我们,一起为开发者、企业提供更高效的智能应用。如果你还想无问芯穹大模型服务接入其他AI应用,也可以在评论区告诉我们。