Qwen3小模型实测:从4B到30B,到底哪个能用MCP和Obsidian顺畅对话?

本文实测 Qwen3 系列本地模型(4B/8B/14B)与 Obsidian-MCP 的知识库交互效果,发现小模型存在工具调用失效、响应幻觉及上下文限制等问题。4B 版本 因量化丢失指令理解能力,8B版本虽能调用工具但存在内容偏差。14B+就能正常对话了,本地小模型可用性在逐步上升,但我距离流畅交互还差一块 16G 显卡的距离😀

Qwen3小模型实测:从4B到30B,到底哪个能用MCP和Obsidian顺畅对话? 根据新尺寸生成图片  2  20250430

 

Qwen3 小模型实测:从 4B 到 30B,到底哪个能用 MCP 和 Obsidian 顺畅对话?

听闻昨晚发布 qwen3 优化了模型的 Agent 和 代码能力,进而加强了对 MCP 的支持。

Qwen3:思深,行速
https://qwenlm.github.io/zh/blog/qwen3/

引言里面的这句话

小型MoE模型Qwen3-30B-A3B的激活参数数量是QwQ-32B 10%,表现更胜一筹, 
`Qwen3-4B 这样的小模型也能匹敌 Qwen2.5-72B-Instruct 的性能`。

让我很是兴奋了一把,于是下班回去在 nas服务器 用 ollama pull 模型部署好,使用 cherry studio,启用 obsidian-mcp,开始测试,测试结果却啪啪打脸。

测试内容:

  1. 1. 查询我的 obsidian 知识库最近 1 天的改动,模型瞎回答

模型命中不了 tool。

  1. 1. 使用 obsidian 的 mcp 的 obsidian_get_recent_changes 工具,查询我的知识库最近 1 天的改动

我都提示工具名称了,模型还是瞎回答。

qwen3 模型

Qwen3 4B 本地模型 + Obsidian MCP的本地问答 image 20250429

 

模型评测项说明

评测名称

说明

解读重点

ArenaHard

综合对话能力的人工对比评测,偏重 " 困难场景 "

高分代表对话生成自然、逻辑性强

AIME'24 / '25

数学竞赛题,测试数学推理、数列、几何等能力

GPT-4o 分数很低,因其在该基准测试中未开启 " 思考模式 ",Qwen3 表现更实际

LiveCodeBench

代码生成任务,结合实时代码执行验证正确性

Qwen3-4B 表现接近 GPT-4o,说明小模型已具备强代码能力

CodeForces(Elo Rating)

类似编程竞赛 Elo 排名,越高越强

Qwen3-4B > GPT-4o,意味着它在 " 解题速度 + 准确性 " 上优于 GPT-4o

GPQA

高质量问答集(类似学术类 QA),考察多跳推理

Qwen 系列保持优势,说明对知识与推理兼顾

LiveBench

实时对话任务评测,包括多轮上下文与事实性要求

GPT-4o 得分较低(52.2),说明未必在所有任务中都最优

BFCL

指令遵循与对话连贯性测试,Qwen 使用 FC 格式评估

GPT-4o 表现最强,Qwen3-4B 略弱但接近

MultiIF(8 Languages)

多语言指令跟随能力评估

Qwen3-4B 具有较好多语泛化,优于 GPT-4o(特别在非英语场景)

Obsidian-MCP

Obsidian-MCP 通常用于以下任务:

  • • 日志/笔记内容的语义检索与总结(嵌入 + 问答)

  • • 自我对话(多轮历史上下文)

  • • 任务建议、卡片联想等基于上下文的 " 思维增强 "

  • • 私有知识库的记忆回调(streamable / SSE 模式长连接)

  • • 本地嵌入 + 轻量推理,不依赖公网 LLM

这些任务主要要求:

  • • 指令遵循能力

  • • 上下文感知(少量上下文)

  • • 中等推理能力

  • • 响应快,模型小,易部署

Obsidian API 工具列表

 

JSON 搜索获取周期笔记内容获取最近周期笔记列表获取最近修改的文件

工具方法

功能描述

参数

list_files_in_vault

获取知识库文件列表

list_files_in_dir

获取指定目录文件列表

dirpath

get_file_contents

获取单个文件内容

filepath

get_batch_file_contents

批量获取多个文件内容

filepaths

search

执行简单搜索

query, context_length

search_json

执行格式复杂搜索

query

append_content

追加内容到文件

filepath, content

patch_content

修改文件指定内容块

filepath, operation, target_type, target, content

delete_file

删除文件/目录

filepath

get_periodic_note

获取周期笔记内容

period

get_recent_periodic_notes

获取最近周期笔记列表

period, limit, include_content

get_recent_changes

获取最近修改的文件

limit, days

测试 Qwen3-4B 能力是否匹配上述需求

qwen3:4b,吐字飞快,回答的水准也是高了,但是文不对题啊,连要调用 tool 都没识别出来。
于是去看了下 hugging_face 的tokenizer_config.json模型配置,的确有tool_call这一层啊,咋就不 working,难道是这个q4量化导致智商减退厉害?

Qwen3 4B 本地模型 + Obsidian MCP的本地问答 image 20250430 4

以为我 nas 上 4b 的小 n 卡终于派上用场了,看来还得再等等。
想再试试 8b 但是本地显存不够,下面换成 openrouter 的服务测试 8b,14b,30b 的。

测试 Qwen3-8B 能力是否匹配上述需求

使用 cherryStudio 测试 qwen3:8b,是能够调用 tool,不过回答的有幻觉,返回的笔记名称都改了

Qwen3-4B-本地模型 + Obsidian-MCP的`本地问答`.md
回答成了

01Project/Blog/draft/Qwen3-4B-本地模型 + Obsidian-MCP的`本地问题`.md

这个时候笔记使用 git 同步 的优越性就出来了,本地使用 mcp 对笔记进行整理时,如果出现错误,可随时回滚到上次提交的版本!

Qwen3 4B 本地模型 + Obsidian MCP的本地问答 image 20250430 1


那这 8B 基本只能闲聊,在我这个场景属于中看不中用

测试 Qwen3-14B 能力是否匹配上述需求

使用 openrouter 的 qwen3:14b 模型进行测试

Qwen3 4B 本地模型 + Obsidian MCP的本地问答 image 20250430 2


看着不错,能正常返回结果。
但想深入测试内容却报 token 不足。按官方数据,qwen3:14b模型的最大 token 是128K,15 万字,我想这足够分析一篇笔记了。
但是我测试的时候,让读取笔记内容进行总结,却提示 token 超过 40k 了,不知道为啥?

Qwen3 4B 本地模型 + Obsidian MCP的本地问答 image 20250430 3


从这段报错可以明确看出:
模型当前上下文限制为40960 tokens➤ 超限。

判断是 openRouter 自家部署时的限制。换成通义官方的 qwen3-demo

https://huggingface.co/spaces/Qwen/Qwen3-Demo

测试下来同样的文本,是可以正常总结的,128k 的 token 数是足够的,那看来 8B,14B,32B 还是能在本地派上用成。

结论

使用 Qwen3 与 Obsidian-MCP 的知识库交互测试得出结论:

4B 版本:量化压缩导致失语

  • • 工具调用能力完全丢失,面对明确的 obsidian_get_recent_changes 指令无动于衷

  • • token 容量 32K,长会话可能难以完整处理

8B 版本:看似能用实则危险

  • • 虽能识别工具调用,但返回的文件路径存在较高的错误率;

  • • 内容总结时出现 幻觉改写,笔记名会被修改;

  • • 如果 MCP 调用 API 出现误删除,又没有 git 备份会更危险

14B+ 版本:真香警告

  • • 128K token 容量完美适配知识库场景,测试中准确调用 Obsidian API

  • • 但本地部署需 16G 显存,让多数 NAS 用户望而却步

在我的 16G 显卡到来前,要注意做好隐私保护,先通过云端大模型 +MCP,读取非敏感数据目录作为问答的上下文。

 

 大模型&AI产品经理如何学习

求大家的点赞和收藏,我花2万买的大模型学习资料免费共享给你们,来看看有哪些东西。

1.学习路线图

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。


2.视频教程

网上虽然也有很多的学习资源,但基本上都残缺不全的,这是我自己整理的大模型视频教程,上面路线图的每一个知识点,我都有配套的视频讲解。

(都打包成一块的了,不能一一展开,总共300多集)

因篇幅有限,仅展示部分资料,需要点击下方图片前往获取

3.技术文档和电子书 

这里主要整理了大模型相关PDF书籍、行业报告、文档,有几百本,都是目前行业最新的。



4.LLM面试题和面经合集


这里主要整理了行业目前最新的大模型面试题和各种大厂offer面经合集。



👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集***

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序员辣条

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值