大模型在线辅导小模型,正确率提50%、推理效率涨90%

想一下,一个刚学数学的小学生(小模型SLM),虽然做题快,但遇到复杂问题就容易卡壳。而博士生导师(大模型LLM)知识渊博,但计算成本高。

论文:Guiding Reasoning in Small Language Models with LLM Assistance
链接:https://arxiv.org/pdf/2504.09923v1

论文的突破点在于:让小学生自己尝试解题,只在关键步骤(比如解方程或逻辑推理)时,导师才出手指导。这种“外挂大脑”模式,就是SMART框架的核心。

小模型自主推理,大模型在错误步骤处介入

SMART框架:像老师辅导学生一样工作

三步流程

  • 第一步:小模型自己写解题步骤(比如:“先算加法,再算乘法”)。

  • 第二步:给每一步“打分”——用两种方法:

    • PRM分数:像老师批改作业,直接判断对错;

    • TLC分数:看小模型自己有多自信(比如概率高低)。

  • 第三步:分数低于阈值时,召唤大模型修正这一步。

生成推理路径的概率公式:


简单说,就是每一步都依赖前面的步骤,像搭积木一样。

得分阈值τ:决定是否需要大模型介入的“分数线”。

框架流程图:生成→打分→修正循环

实验:小模型逆袭,接近大模型水平

论文用500道数学题测试,发现:

  • 单次生成(N=1):SMART让小模型正确率提升10-20%。

  • 多次生成(N=32):小模型能达到大模型90%以上的水平!

  • 越难的题越明显:比如最高难度题(Lv5),小模型正确率从20%飙升至50%+。

不同难度等级下的性能对比表
不同难度等级下的性能对比表

关键发现

  • 大模型只需修改约20%的步骤,就能大幅提升效果。

  • 成本优势:相比全程用大模型,SMART的LLM调用量减少90%。

未来手机也能跑高级AI?

  • 手机本地运行小模型,遇到复杂问题时联网求助大模型。

  • 既保证响应速度,又降低流量费用。

展望

  • 未来可能结合强化学习,动态调整“辅导频率”。

  • 隐私保护:敏感数据留在本地,只上传必要问题。

启示:“团队协作”新思路

SMART框架揭示了一个趋势:大小模型协同,而非取代

  • 小模型的优势:速度快、成本低;

  • 大模型的价值:关键时刻提供深度推理。

这种“师徒制”或许会成为AI落地的新范式。


备注:昵称-学校/公司-方向/会议(eg.ACL),进入技术/投稿群

id:DLNLPer,记得备注呦

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值