Python-MCPServer开发
使用FastMCP开发【SSE模式的MCPServer】,熟悉【McpServer编码过程】+【McpServer调试方法】
1-核心知识点
- 1-熟悉【SSE模式的MCPServer】开发
- 2-熟悉【stdio模式的MCPServer】开发
- 3-熟悉【启动MCPServer】的三种方式
- 3.1-直接启动:python mcp_server.py
- 3.2-代码中uv使用:subprocess.Popen([“uv”, “run”, server_file])
- 3.3-使用mcpInspector网页:mcp dev mcp_server.py
- 4-熟悉【Agent增强外部能力】的两种方式
- 4.1-调用tool:Agent(name=“Assistant”, instructions=“用中文回复”, tools=[get_weather])
- 4.2-调用tool:Agent(name=“Assistant”, instructions=“用中文回复”, mcp_servers=[mcp_server])
2-思路整理
1-McpServer须知
-
1-MCPServer已经可以对外提供服务了,这个不同于传统的API,虽然也运行在特殊端口了,但是不能通用postman进行调用
-
2-那有人质疑这个说法了,为什么使用mcpInspector网页调试就可以连通?
- 可以理解为:mcpInspector联通的是Agent,只是查看Agent上有哪些Resources/Prompts/Tools…并且可以通过Agent和McpServer进行交互,而不是Rest请求
-
3-MCPServer_SSE和MCPServer_stdio如何进行快速区分:
- 1-stdio-适用于同一台机器上(进程间通讯,通讯不经过HTTP协议,超级快)->要求:你要有可运行文件【Python文件】或者【Java的Jar包】
- 2-SSE适用于所有环境,通过IP进行HTTP通讯->基本没有要求,无脑就全部使用这种
-
4-再次澄清:MCPServer_SSE虽然可以部署,有大网IP或者域名,但是依然不能通用postman进行调用
- post调用的接口->要求是@Controller标记或者FastAPI开发的API接口
- agent调用的接口->要求是@mcp.tool标记(可能对外就不是API接口)
- 总结:可以理解@mcp.tool标记后是一种特殊的API,只能被Agent调用
-
5-SSE和stdio在代码上有什么区别?
- 1-McpServer的编写上只有一个区别【mcp.run(transport=“sse/stdio”)】
- 2-Agent在连接的时候使用【McpServerstdio】和【McpServerSSE】进行McpServer构建
- 3-【mcp.run(transport=“sse”)】后,服务【可以被任何远程】的Agent进行访问(此时先不谈鉴权的问题)
- 4-【mcp.run(transport=“stdio”)】后,服务【只可以被本地进程】的Agent进行访问(此时先不谈鉴权的问题)
2-McpServer核心思路
1-【mcp.run(transport=“sse”)】后,服务【可以被任何远程】的Agent进行访问(此时先不谈鉴权的问题)
2-【mcp.run(transport=“stdio”)】后,服务【只可以被本地进程】的Agent进行访问(此时先不谈鉴权的问题)
- 1-编写传统的Service业务代码
- 2-在Service业务代码头上添加@tool装饰器,即可实现FastMCP的Tool功能
- 3-在Service业务代码头上添加@mcp.tool()装饰器,即可实现FastMCP的McpServer功能
- 4-主程序指定运行方法-stdio进程启动(此时MCPServer已经可以对外提供服务了,这个不同于传统的API,虽然也运行在特殊端口了,但是不能通用postman进行调用)
- 1-直接启动:python mcp_server.py
- 2-代码中uv使用:subprocess.Popen([“uv”, “run”, server_file])
- 3-使用mcpInspector网页:mcp dev mcp_server.py
- 5-Agent调试McpServer
- 1-指定LLM
- 2-指定Agent(McpServerList+角色定位)
- 3-Runner.run(Agent+LLM+问题)交互
3-McpServer和McpClient关系
- 1-McpClient只是一个概念,在使用Python进行开发的时候根本就没有任何关于McpClient的类
- 2-McpClient就是McpServer连接过程的过程
4-Agent+LLM+McpServers
-
1-LLM和Agent最初是独立创建的,两者之间没有关系
- LLM指明用哪家大模型
- Agent指明用哪些McpServerList
-
2-LLM和Agent是通过Runner.run(Agent+LLM+问题)进行关联
-
3-Agent+LLM如何进行交互(要不要进行最后的总结)是通用(result.output获取的时候进行逻辑编排的)
-
如果我们自己做MCP编排,可能就是在这个地方进行核心逻辑编写
-
5-MCPServer核心代码
- 1-在Service业务代码头上添加@tool装饰器,即可实现FastMCP的Tool功能
# 假设 mcp 已经正确导入
try:
from mcp import tool
except ImportError:
# 如果 mcp 未找到,模拟一个 tool 装饰器
def tool(func):
return func
# 在 Service 业务代码头上添加 @tool 装饰器
@tool
async def get_city_list(self) -> list:
"""获取所有的城市信息。
返回:
str: 所有的城市信息列表
"""
logging.info(f"获取所有的城市信息")
city_list = []
for city in self.CITY_WEATHER_DATA:
city_list.append(city)
return city_list
- 2-在Service业务代码头上添加@mcp.tool()装饰器,即可实现FastMCP的McpServer功能
from mcp.server.fastmcp import FastMCP
from city_01_service import CityDataServer
# 1-初始化 MCP 服务器
mcp = FastMCP("CityDataServer")
# 2-初始化城市信息服务器(业务代码+@tool装饰器)
city_server = CityDataServer()
# 3-在 Service 业务代码头上添加@mcp.tool()装饰器
@mcp.tool()
# 获取所有城市列表
async def get_city_list():
"""获取所有城市列表。
返回:
str: 所有城市列表
"""
city_list = await city_server.get_city_list()
return city_list
# 4-主程序指定运行方法-stdio/sse进程启动
if __name__ == "__main__":
mcp.run(transport='stdio/sse')
3-参考网址
- MCP官网的开发样例:https://github.com/openai/openai-agents-python/blob/main/examples/mcp/sse_example/main.py
- 个人代码实现仓库:https://gitee.com/enzoism/python_mcp_client_server
4-上手实操
1-空工程初始化环境
mkdir my_project
cd my_project
python -m venv .venv
2-激活环境
# Windows
source .venv/Scripts/activate
# Mac
source .venv/bin/activate
3-添加依赖
对应的依赖是在激活的环境中
# uv用于后续MCP Inspector的连接
pip install uv httpx mcp
4-ToolFunction核心代码
import asyncio
import os
from agents import (
Agent,
RunConfig,
Runner,
function_tool,
set_tracing_disabled,
)
from dotenv import load_dotenv
from model_providers.deepseek import DeepSeekModelProvider
# 1-环境变量加载相关
load_dotenv()
BASE_URL = os.getenv("BASE_URL") or ""
API_KEY = os.getenv("API_KEY") or ""
MODEL_NAME = os.getenv("MODEL_NAME") or ""
if not BASE_URL or not API_KEY or not MODEL_NAME:
raise ValueError(
"请通过环境变量或代码设置EXAMPLE_BASE_URL、EXAMPLE_API_KEY、EXAMPLE_MODEL_NAME。"
)
# 2-跳过大模型的链路追踪
set_tracing_disabled(disabled=True)
"""
本例使用自定义提供程序调用Runner.run()的部分,并直接调用OpenAI进行其他操作。
步骤:
1. 【实例化LLM】ModelProvider对象-并构建RunConfig
2. 【实例化Agent】创建一个Agent。
3. 在调用Runner.run()结合【LLM】+【Agent】进行问答
注意,在本例中,我们假设您没有从platform.openai.com获取API密钥,因此禁用了跟踪。
如果您有API密钥,您可以选择设置`OPENAI_API_KEY`环境变量或调用set_tracing_export_api_key()来设置跟踪特定的密钥。
"""
# 3-定义一个工具函数
@function_tool
def init_weather_tool_function(city: str):
print(f"[debug] getting weather for {city}")
return f"The weather in {city} is sunny."
async def run_mcp_tool_function():
# 1-【实例化LLM】ModelProvider对象-并构建RunConfig
run_config = RunConfig(model_provider=DeepSeekModelProvider(BASE_URL, API_KEY, MODEL_NAME))
# 2-【实例化Agent】创建一个Agent
agent = Agent(
name="Assistant",
instructions="使用工具回答大模型的问题",
tools=[init_weather_tool_function])
# 3.1-调用工具回答问题
message = "杭州的天气怎么样?"
print(f"\n\n【大模型请求案例】-> {message}")
result = await Runner.run(starting_agent=agent, input=message, run_config=run_config)
print(result.final_output)
# 3.2-获取Agent对话的结果-没有配置RunConfig使用的是OpenAI的默认模型
# result = await Runner.run(
# agent,
# "给我讲一个笑话吧!",
# )
# print(result.final_output)
if __name__ == "__main__":
asyncio.run(run_mcp_tool_function())
5-McpServer核心代码
1-【mcp.run(transport=“sse”)】后,服务【可以被任何远程】的Agent进行访问(此时先不谈鉴权的问题)
2-【mcp.run(transport=“stdio”)】后,服务【只可以被本地进程】的Agent进行访问(此时先不谈鉴权的问题)
import random
import random
from mcp.server.fastmcp import FastMCP
# Create server
mcp = FastMCP("Echo Server")
# 1-MCP工具1-数字加和
@mcp.tool()
def add(a: int, b: int) -> int:
"""Add two numbers"""
print(f"[MCP工具1-数字加和] add({a}, {b})")
return a + b
# 2-MCP工具2-随机选定的字符
@mcp.tool()
def get_secret_word() -> str:
"""获取随机单词"""
print("[MCP工具2-随机选定的字符] get_secret_word()")
return random.choice(["apple", "banana", "cherry"])
if __name__ == "__main__":
mcp.run(transport="sse/stdio")
6-Agent调试McpServer
hitokoto_02_api.py
:API直接调用service对外暴露rest请求
import asyncio
import os
from agents import Agent, Runner, RunConfig, set_tracing_disabled
from agents.mcp import MCPServer, MCPServerStdio
from agents.model_settings import ModelSettings
from dotenv import load_dotenv
from model_providers.deepseek import DeepSeekModelProvider
# 1-环境变量加载相关
load_dotenv()
BASE_URL = os.getenv("BASE_URL") or ""
API_KEY = os.getenv("API_KEY") or ""
MODEL_NAME = os.getenv("MODEL_NAME") or ""
if not BASE_URL or not API_KEY or not MODEL_NAME:
raise ValueError(
"请通过环境变量或代码设置EXAMPLE_BASE_URL、EXAMPLE_API_KEY、EXAMPLE_MODEL_NAME。"
)
# 2-跳过大模型的链路追踪
set_tracing_disabled(disabled=True)
"""
本例使用自定义提供程序调用Runner.run()的部分,并直接调用OpenAI进行其他操作。
步骤:
1. 【实例化LLM】ModelProvider对象-并构建RunConfig
2. 【实例化Agent】创建一个Agent。
3. 在调用Runner.run()结合【LLM】+【Agent】进行问答
- 1)直接和大模型对话
- 2)调用MCPServer_SSE模式-[MCP工具1-数字加和]
- 3)调用MCPServer_SSE模式-[MCP工具2-随机选定的字符]
"""
async def run_mcp_server(mcp_server: MCPServer):
# 1-【实例化LLM】ModelProvider对象-并构建RunConfig
run_config = RunConfig(model_provider=DeepSeekModelProvider(BASE_URL, API_KEY, MODEL_NAME))
# 2-【实例化Agent】创建一个Agent
agent = Agent(
name="Assistant",
instructions="使用工具回答大模型的问题",
mcp_servers=[mcp_server],
model_settings=ModelSettings(tool_choice="required"),
)
# 3.1-直接和大模型对话
message = "给我讲一个笑话吧!"
print(f"\n\n【大模型请求案例】-> {message}")
result = await Runner.run(starting_agent=agent, input=message, run_config=run_config)
print(result.final_output)
# 3.2-调用MCPServer_SSE模式-[MCP工具1-数字加和]
message = "What's the weather in Tokyo?"
print(f"\n\n【大模型请求案例】-> {message}")
result = await Runner.run(starting_agent=agent, input=message, run_config=run_config)
print(result.final_output)
# 3.3-调用MCPServer_SSE模式-[MCP工具2-随机选定的字符]
message = "What's the secret word?"
print(f"\n\n【大模型请求案例】-> {message}")
result = await Runner.run(starting_agent=agent, input=message, run_config=run_config)
print(result.final_output)
async def init_mcp_server() -> MCPServerStdio:
# 1-创建 MCP 服务器连接实例,但不立即运行(python mcp_server_xx.py)
this_dir = os.path.dirname(os.path.abspath(__file__))
python_exec_path = os.path.join(this_dir, ".venv/Scripts/python.exe")
mcp_server_stdio_file = os.path.join(this_dir, "mcp05_stdio.py")
weather_server = MCPServerStdio(
name="weather",
params={
"command": python_exec_path,
"args": [mcp_server_stdio_file],
"env": {},
},
# 缓存工具列表以减少延迟,不需要每次连接时重新获取工具列表
cache_tools_list=True
)
# 2-手动连接到MCP服务器
print("正在连接到MCP服务器...")
await weather_server.connect()
print("MCP服务器连接成功!")
# 3-等待服务器连接成功并获取MCP服务可用工具列表
tools = await weather_server.list_tools()
print("\n可用工具列表: ")
for tool in tools:
print(f" - {tool.name}: {tool.description}")
return weather_server
if __name__ == "__main__":
# 1-获取McpServer
server = asyncio.run(init_mcp_server())
# 2-运行McpServer
asyncio.run(run_mcp_server(server))