The RealHumanEval: Evaluating Large Language Models’ Abilities to Support Programmers

本文是LLM系列文章,针对《The RealHumanEval: Evaluating Large Language Models’ Abilities to Support Programmers》的翻译。

RealHumanEval:评估大型语言模型支持程序员的能力

摘要

对代码的大型语言模型(LLM)的评估主要依赖于静态基准,包括HumanEval,该基准衡量LLM生成通过单元测试的完整代码的能力。随着LLM越来越多地被用作程序员助理,我们研究了在使用LLM编码时,现有基准的收益是否会转化为程序员生产力的提高,包括编码所花费的时间。除了静态基准测试外,我们还研究了偏好指标的效用,这些指标可能被用作衡量LLM有用性的代理,如代码接受率或复制率。为此,我们引入了RealHumanEval,这是一个web界面,用于衡量LLM通过自动完成或聊天支持来帮助程序员的能力。我们使用RealHumanEval进行了一项用户研究(N=213),其中用户与六个不同基本模型性能的LLM进行了交互。尽管静态基准测试没有将人类纳入循环,但我们发现基准测试性能的提高会提高程序员的生产力;然而,基准测试与人类表现之间的差距并不成正比,这一趋势在两种形式的LLM支持中都存在。相比之下,我们发现程序员的偏好与他们的实际表现并不相关,这促使他们需要更好的、以人为中心的代理信号。我们还开源了RealHumanEval,以实

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值