【LLMs 低成本】LLM Cascades with Mixture of Thoughts Representations for Cost-efficient Reasoning

Large Language Model Cascades with Mixture of Thoughts Representations for Cost-efficient Reasoning 采用混合思维表征的LLMs级联,实现低成本高效率推理

论文地址
代码地址
在这里插入图片描述在这里插入图片描述
在这里插入图片描述在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

Abstract

Large language models (LLMs) such as GPT-4 have exhibited remarkable performance in a variety of tasks, but this strong performance often comes with the high expense of using paid API services. In this paper, we are motivated to study building an LLM cascade to save the cost of using LLMs, particularly for performing reasoning (e.g., mathematical, causal) tasks. Our cascade pipeline follows the intuition that simpler questions can be addressed by a weaker but more affordable LLM, whereas only the challenging questions necessitate the stronger and more expensive LLM. To realize this decision-making, we consider the “answer consistency” of the weaker LLM as a signal of the question difficulty and propose several methods for the answer sampling and consistency checking, including one leveraging a mixture of two thought representations (i.e., Chain-of-Thought and Program-of-Thought). Through experiments on six reasoning benchmark datasets, with GPT-3.5-turbo and GPT-4 being the weaker and stronger LLMs, respectively, we demonstrate that our proposed LLM cascades can achieve performance comparable to using solely the stronger LLM but require only 40% of its cost.

GPT-4 等大型语言模型(LLM)在各种任务中表现出了卓越的性能,但这种强大的性能往往伴随着使用付费 API 服务的高昂费用。

在本文中,我们的动机是研究建立一个 LLM 级联,以节省使用 LLM 的成本,尤其是在执行推理(如数学、因果关系)任务时。

我们的级联管道遵循的直觉是,较简单的问题可以用较弱但更经济的 LLM 来解决,而只有具有挑战性的问题才需要较强和较昂贵的 LLM。

为了实现这一决策,我们将较弱 LLM 的 "答案一致性 "视为问题难度的信号,并提出了几种答案抽样和一致性检查方法,其中包括一种利用两种思维表征(即思维链和思维程序)混合的方法。

通过在六个推理基准数据集(GPT-3.5-turbo 和 GPT-4 分别为较弱和较强的 LLM)上进行实验,我们证明了我们提出的 LLM 级联可以实现与仅使用较强 LLM 相当的性能,但所需成本仅为其 40%。

  • 19
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值