GSM-PLUS: A Comprehensive Benchmark for Evaluating the Robustness of LLMs as Mathematical Problem Solvers
这篇论文介绍了一个名为GSM-PLUS的基准测试,它旨在全面评估大型语言模型(LLMs)解决数学问题时的鲁棒性。
背景与动机
- 问题提出:尽管大型语言模型在数学推理任务上表现出色,但人们质疑这些模型是否真的理解数学知识,还是仅仅依赖于表面模式或数据泄露来解决问题。
- 现有问题:当数学问题的表述稍作变化时,这些模型可能会给出错误的答案。
GSM-PLUS数据集
- 数据集构建:研究者扩展了GSM8K数据集,创建了GSM-PLUS,它包含针对数学问题的多种扰动类型,以测试模型的鲁棒性。
- 扰动类型:包括数值变化、算术变化、问题理解、分散项插入和批判性思维等。
实验设置与评估
- 模型选择:评估了包括专有模型(如GPT-4)和开源模型在内的25种不同规模的LLMs。
- 评估指标:使用性能下降率(PDR)和准确解决对的比例(ASP)来衡量模型在面对扰动时的性能变化。
实验结果
- 性能下降:在GSM-PLUS数据集上,所有模型的性能都比在GSM8K上有所下降,表明在面对问题变化时,模型的鲁棒性不足。
- 模型比较:GPT-4显示出最高的鲁棒性,而某些模型如CodeLlama在面对特定扰动时性能下降显著。
提示技术
- 现有方法:研究了包括链式思维提示(COT)、思维程序提示(POT)和最少至最多提示(LTM)等方法。
- 组合提示:提出了一种新的组合提示方法(COMP),通过迭代生成和验证来提高模型的鲁棒性。
结论与未来工作
- 研究贡献:GSM-PLUS为评估LLMs在数学推理任务上的鲁棒性提供了一个系统化的基准。
- 未来方向:需要进一步研究如何提高模型在更广泛数学技能上的表现和鲁棒性。
局限性
- 教育水平:研究主要集中在小学数学问题上,其他教育水平的数学推理鲁棒性评估留作未来工作。
- 解决方案链准确性:没有调查解决方案链的准确性,因为缺乏可靠的度量标准。
- 失败原因:GSM-PLUS没有深入探讨模型解决问题失败背后的原因。
伦理声明
- 伦理遵守:研究遵守伦理守则,没有使用任何私人或非公开信息。
整体而言,这篇论文强调了在数学问题解决中评估和提高LLMs鲁棒性的重要性,并提出了新的数据集和评估方法来推动这一领域的研究。