你的模型真的擅长数学吗?MathCheck:大模型数学推理能力的新评估范式

245bfecb501c734b1f1ec9162fd6d262.jpeg

标题

你的模型真的擅长数学吗?MathCheck:大模型数学推理能力的新评估范式

时间

2024.8.24 10:30-11:30 周六

入群

d68d03c686bc8ec038c53f5e3c99dae9.png

内容大纲

1.背景-大模型数学推理能力研究现状

2.我们为什么需要更好的评估范式?

3.MathCheck评估框架设计

4.数据构建方法与数据集介绍

5.大模型在MathCheck上的性能表现

6. 数学推理中的行为分析与发现

7. 总结与展望

8. QA

引言

数学推理能力是大语言模型智能水平的重要反映。如何评估大模型真实的数学推理能力,甚至反映现实场景中的用户体验,已成为一个关键问题。目前的评估范式主要集中于求解数学问题上的性能表现,这带来了模型过拟合的巨大风险,无法准确反映模型真正的数学推理能力。

567cf69ef65dfd53300847db91eca396.jpeg

在本文中我们提出,如果模型真的理解了一个数学问题,那么它应该能够鲁棒地将其应用于关于这道题的各种数学任务。受此启发,我们提出了MathCheck,一个精心设计的测试矩阵,用于评测大模型在数学推理上的任务泛化性和推理鲁棒性。MathChck包含了多个数学推理任务和鲁棒性问题变种,以对数学推理能力进行综合评估和推理行为分析。利用MathCheck,我们构建MathCheck-GSM (文本应用题) 和 MathCheck-GEO (多模态几何题) 来分别评估文本推理能力和多模态推理能力。

我们在MathCheck-GSM和 MathCheck-GEO上评估了21个大语言模型和11个多模态大语言模型。评测结果表明,前沿模型如GPT-4o等在MathCheck上继续表现出色,但是其他模型表现出显著的下降。进一步的实验表明,与传统评估范式相比,MathCheck更能反映出真实的数学推理能力。此外,借助MathCheck我们可以直观地对模型的推理行为进行行为分析,并得到一些有趣的发现。希望我们的研究和观察能够推动更全面地评估大模型推理能力研究。我们的项目地址: https://mathcheck.github.io/

个人简介

c22c02ba4ed127d2505c443f065679a8.jpeg

周梓浩,目前是利物浦大学和西交利物浦大学的二年级博士生, 曾在清华大学KEG实验室进行访问实习。主要研究方向为评估和提升大语言模型的数学推理能力,在ACL,AAAI,ICASSP等国际会议发表论文多篇。他的近期研究兴趣主要集中在理解和提升大语言模型的数学推理一致性。个人主页: https://zhouzihao501.github.io/


备注:昵称-学校/公司-方向/会议(eg.ACL),进入技术/投稿群

28275ed7c1a2fb84f0d49a8b6cbcce7f.png

id:DLNLPer,记得备注呦

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值