大模型一对一战斗75万轮,GPT-4夺冠,Llama 3位列第五

克雷西 发自 凹非寺
量子位 | 公众号 QbitAI

关于Llama 3,又有测试结果新鲜出炉——

大模型评测社区LMSYS发布了一份大模型排行榜单,Llama 3位列第五,英文单项与GPT-4并列第一。

8d956f06ad88b0de1e55bf18d0484058.png

不同于其他Benchmark,这份榜单的依据是模型一对一battle,由全网测评者自行命题并打分。

最终,Llama 3取得了榜单中的第五名,排在前面的是GPT-4的三个不同版本,以及Claude 3超大杯Opus。

而在英文单项榜单中,Llama 3反超了Claude,与GPT-4打成了平手。

对于这一结果,Meta的首席科学家LeCun十分高兴,转发了推文并留下了一个“Nice”。

a7470cae1c119dba8e8115b23a9269f9.png

PyTorch之父Soumith Chintala也激动地表示,这样的成果令人难以置信,对Meta感到骄傲。

Llama 3的400B版本还没出来,单靠70B参数就获得了第五名……
我还记得去年三月GPT-4发布的时候,达到与之相同的表现几乎是一件不可能的事。
……
现在AI的普及化实在是令人难以置信,我对Meta AI的同仁们做出这样的成功感到非常骄傲。

d9c5f5797c02aaefa6504e29dd7bac1f.png

那么,这份榜单具体展示了什么样的结果呢?

近90个模型对战75万轮

截至最新榜单发布,LMSYS共收集了近75万次大模型solo对战结果,涉及的模型达到了89款。

其中,Llama 3参与过的有1.27万次,GPT-4则有多个不同版本,最多的参与了6.8万次。

832ad491361a1002b44affe69a1344cb.png

下面这张图展示了部分热门模型的比拼次数和胜率,图中的两项指标都没有统计平局的次数。

302e1f73fdf35352a9494d57d5e12098.png

榜单方面,LMSYS分成了总榜和多个子榜单,GPT-4-Turbo位列第一,与之并列的是早一些的1106版本,以及Claude 3超大杯Opus。

另一个版本(0125)的GPT-4则位列其后,紧接着就是Llama 3了。

不过比较有意思的是,较新一些的0125,表现还不如老版本1106。

8be0b105e324c15c8f02b8933f6e751a.png

而在英文单项榜单中,Llama 3的成绩直接和两款GPT-4打成了平手,还反超了0125版本。

ed54f043e7c5e19dd5166bf41f23d38a.png

中文能力排行榜的第一名则由Claude 3 Opus和GPT-4-1106共享,Llama 3则已经排到了20名开外。

f14e08aa31bc6cfca65eeaa89de965e1.png

除了语言能力之外,榜单中还设置了长文本和代码能力排名,Llama 3也都名列前茅。

不过,LMSYS的“游戏规则”又具体是什么样的呢?

人人都可参与的大模型评测

这是一个人人都可以参与的大模型测试,题目和评价标准,都由参与者自行决定。

而具体的“竞技”过程,又分成了battle和side-by-side两种模式。

6ea04e9ddea0e56113363c02fa507d22.png

battle模式下,在测试界面输入好问题之后,系统会随机调用库中的两个模型,而测试者并不知道系统到底抽中了谁,界面中只显示“模型A”和“模型B”。

在模型输出答案后,测评人需要选择哪个更好,或者是平手,当然如果模型的表现都不符合预期,也有相应的选项。

只有在做出选择之后,模型的身份才会被揭开。

side-by-side则是由用户选择指定的模型来PK,其余测试流程与battle模式相同

不过,只有battle的匿名模式下的投票结果才会被统计,且在对话过程中模型不小心暴露身份就会导致结果失效。

e342f01473cf59c0cf0564364439f305.png

按照各个模型对其他模型的Win Rate,可以绘制出这样的图像:

e3f5fed3a972d5db825f428e33bd30b9.png

示意图,较早版本

而最终的排行榜,是利用Win Rate数据,通过Elo评价系统换算成分数得到的。

Elo评价系统是一种计算玩家相对技能水平的方法,由美国物理学教授Arpad Elo设计。

具体到LMSYS,在初始条件下,所有模型的评分(R)都被设定为1000,然后根据这样的公式计算出期待胜率(E)。

9ba34a323fb14feae7463fed1a96adb0.png

随着测试的不断进行,会根据实际得分(S)对评分进行修正,S有1、0和0.5三种取值,分别对应获胜、失败和平手三种情况。

修正算法如下式所示,其中K为系数,需要测试者根据实际情况调整。

7261c94f8e68617a0e2e562725ebbc53.png

最终将所有有效数据纳入计算后,就得到了模型的Elo评分。

不过实际操作过程中,LMSYS团队发现这种算法的稳定性存在不足,于是又采用了统计学方法进行了修正。

他们利用Bootstrap方法进行重复采样,得到了更稳定的结果,并估计了置信度区间。

最终修正后的Elo评分,就成了榜单中的排列依据。

One More Thing

Llama 3已经可以在大模型推理平台Groq(不是马斯克的Grok)上跑了。

这个平台的最大亮点就是“快”,之前用Mixtral模型跑出过每秒近500 token的速度。

跑起Llama 3,也是相当迅速,实测70B可以跑到每秒约300 Token,8B版本更是接近了800。

97fb663f9fe644d06e94322251855bf4.png

参考链接:
[1]https://lmsys.org/blog/2023-05-03-arena/
[2]https://chat.lmsys.org/?leaderboard
[3]https://twitter.com/lmsysorg/status/1782483699449332144

—  —

点这里👇关注我,记得标星哦~

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值