1. 开始啦!
在第三章中,我们解析了模型上下文协议(MCP)的核心构建模块:工具、资源和提示。现在,让我们来看看这些模块的传输管道——AI 模型(服务器)与应用程序(客户端)之间是如何实际交换包含这些模块的消息的?这就是 MCP 传输机制 的用武之地。
将传输机制想象成 MCP 消息的递送方式。就像根据距离和需求选择本地快递或国际空运来发送包裹一样,MCP 提供了适用于不同集成场景的多种传输机制。选择合适的传输方式能确保应用程序与 AI 模型之间高效可靠的通信。
本章将引导您了解 MCP 当前使用的主要通信渠道,并展望未来发展方向。我们将涵盖以下内容:
- 本地集成: 对同一台机器上运行的进程使用标准输入/输出(
stdio
)。 - 远程通信: 利用基于 HTTP 的服务器发送事件(SSE)进行网络交互。
- 未来方向: 计划向可流式 HTTP 演进。
理解这些传输方式对于正确设置您的 MCP 集成至关重要,无论您是在构建简单的命令行工具还是复杂的分布式 Web 服务。