Dive是一个开源的MCP主机桌面应用程序,可与任何支持函数调用功能的LLM无缝集成。
官网:
star 389
安装使用
安装
Dive安装非常方便,直接下载安装包:Release v0.7.1 · OpenAgentPlatform/Dive · GitHub
常见的三种操作系统都支持。
下载好安装包,直接安装。安装好后,启动,第一时间让选模型:
比如这里用了自建的模型192.168.1.5:1337 ,选了gtp-4o和deepseek-v3等模型。
配置MCP部分
然后加上了Time MCP,
{
"mcpServers": {
"echo": {
"enabled": true,
"command": "node",
"args": [
"C:\\Users\\Admin\\.dive\\scripts\\echo.js"
]
},
"time": {
"command": "uvx",
"args": [
"mcp-server-time",
"--local-timezone=Asia/Shanghai"
],
"enabled": true
}
}
}
使用
使用界面非常简洁,几乎就是只有一个对话界面:
有报错:
Error: RetryProviderError: RetryProvider failed: Blackbox: ResponseStatusError: Response 500: DeepInfraChat: ResponseError: Invalid response: {"detail": "User is not authorized to access this resource"} Liaobots: JSONDecodeError: Expecting value: line 1 column 1 (char 0)
不明白为什么,大约是Dive连AI模型必须要写key,而我的API服务器设定的没有key,导致的报错?(其实不是)
也就是Dive现在跟很多AI API的连通性可能存在问题,我在issue里看到也有人提高跟LMStudio的api不匹配。(其实不是)
其实主要的原因是因为那些模型不支持MCP,另外自建服务器的不稳定性,也有一些原因。
openai的自建服务器没跟Dive调通,那就用Ollama试试
使用Ollama服务器调Dive
下载deepseek-code模型
ollama run deepseek-coder:1.3b
# 或
ollama pull deepseek-coder:1.3b
查找模型,发现llama3.2模型明确了支持工具:
3B parameters (default)
The 3B model outperforms the Gemma 2 2.6B and Phi 3.5-mini models on tasks such as:
- Following instructions
- Summarization
- Prompt rewriting
- Tool use
ollama run llama3.2
下载了llama3.2 3b模型
用llama3.2 2b模型测试,果然pass了
Dive的MCP测试终于通过了!
再次调通自建服务器
选llama3 72b模型,因为这个模型也是明确支持MCP的,测试通过
总结:
测试下来支持MCP的模型有:deepseek-v3 llama3.2 3b llama3.3 70b 等