大模型智障检测+1:Strawberry有几个r纷纷数不清,最新最强Llama3.1也傻了

梦晨 一水 发自 凹非寺
量子位 | 公众号 QbitAI

继分不清9.11和9.9哪个大以后,大模型又“集体失智”了!

数不对单词“Strawberry”中有几个“r”,再次引起一片讨论。

GPT-4o不仅错了还很自信。

e040a93b71034453928f91bd03a5f531.png

刚出炉的Llama-3.1 405B,倒是能在验证中发现问题并改正。

5a750ea403561dfbbdc1b4f61937eab0.png

比较离谱的是Claude 3.5 Sonnet,还越改越错了。

dc5b4200ab123956f7a7b0d85c742a31.png

说起来这并不是最新发现的问题,只是最近新模型接连发布,非常热闹。

一个个号称自己数学涨多少分,大家就再次拿出这个问题来试验,结果很是失望。

在众多相关讨论的帖子中,还翻出一条马斯克对此现象的评论:

好吧,也许AGI比我想象的还要更远。

8991d6aec8bacf9057db92eac8b21bae.png

路遇失智AI,拼尽全力终于教会

有人发现,即使使用Few-Shot CoT,也就是“一步一步地想”大法附加一个人类操作示例,ChatGPT依然学不会:

倒是把r出现的位置都标成1,其他标成0,问题的难度下降了,但是数“1”依旧不擅长。

30091989f65d8c3d5e8e7567bff8e293.png

为了教会大模型数r,全球网友脑洞大开,开发出各种奇奇怪怪的提示词技巧。

比如让ChatGPT使用漫画《死亡笔记中》高智商角色“L”可能使用的方法。

b8c6a7a3096ba029417b53a0882a5fb4.png

ChatGPT想出的方法倒是也很朴素,就是分别把每个字母写出来再一个一个数并记录位置,总之终于答对了。

bb14ecbff8924430746f3290172f1a32.png

有Claude玩家写了整整3682个token的提示词,方法来自DeepMind的Self-Discover论文,可以说是连夜把论文给复现了。

6b796a49de21c507b840aeb1a7d6064b.png

整个方法分为两大阶段:先针对特定任务让AI自我发现推理步骤,第二阶段再具体执行。

ccc07b42346f517fb6a0cc2032a1d14a.png

发现推理步骤的方法简单概括就是,不光要会抽象的思维方法,也要具体问题具体分析。

136ceb56a53e53df0c36bda4efb94b60.png

这套方法下,Claude给出的答案也非常复杂。

fb2ecffc2dfd7bdb4204a3e055245faf.gif

作者补充,花这么大力气解决“数r问题”其实并不真正实用,只是在尝试复现论文方法时偶然测试到了,希望能找出一个能用来回答所有问题的通用提示词。

不过很可惜,这位网友目前还没公布完整的提示词。

e4c7aac90a8004e7ca8f196821d050f9.png

还有人想到更深一层,如果要计算文档中straberry出现多少次怎么办?

他的方法是让AI想象有一个从0开始的内存计数器,每次遇到这个单词就往上加。

d4053a1c1836b4dc12e616ab383cdb2e.png

有人评论这种方法就像在用英语编程

2a05bf431619d7cda93eb3cf57abf97b.png

也有AI可以一次做对

那么究竟有没有大模型,可以不靠额外提示词直接答对呢?

其实不久之前有网友报告,ChatGPT是有小概率能直接答对的,只不过不常见。

0b18b58d8197ffbe913a3e9a2a0618ba.png

谷歌Gemini 大概有三分之二的概率能答对,打开“草稿”就能发现,默认每个问题回答三次,两次对一次错。

2b7f1d7409c88a6598aedfebb92d7b0b.png

至于国内选手,在提问方式统一、每个模型只给一次尝试机会的测试下,上次能正确判断数字大小的,这次同样稳定发挥。

字节豆包给出了正确回答,还猜测用户问这个问题是要学习单词拼写吗?

0043457469d966d874bf0b0334748be7.png

智谱清言的ChatGLM,自动触发了代码模式,直接给出正确答案“3”。

26151dc0b9cb97d42b1386683f26996c.png

腾讯元宝像解数学题一样列方程给出了正确答案(虽然貌似没有必要)。

94fec554ccf064c3702a27f595d1d694.png

文心一言4.0收费版则更加详细,也是先正确理解了意图,然后掰指头挨个找出了全部的“r”。

1d618edb9d512e25855924ee4912670e.png

不过有意思的是,在同一种方法下,文心一言APP中的免费版文心3.5掰指头也能数错。

4cbae6941638b5b55146dd3ff9137d91.jpeg

讯飞星火也通过找出“r”所在位置给出了正确回答。

737d3c3bed88a9d91aa73885e1e9d93f.png

还是token的锅

虽然“数r”和“9.11与9.9哪个大”,看似一个是数字问题一个是字母问题,但对于大模型来说,都是token问题

单个字符对大模型来说意义有限,使用GPT系列的Llama系列的tokenizer就会发现,20个字符的问题,在不同AI眼中是10-13个token。

其中相同之处在于,strawberry被拆成了st-,raw,-berry三个部分来理解。

fed5d89a5ea4cb63255ec6d556d3af93.png

换一个思路用特殊字符ⓢⓣⓡⓐⓦⓑⓔⓡⓡⓨ来提问,每一个字符对应的token也就会分开了。

c76efffbc775b43d2c48cef5e75b6e4d.png7bc8afff08e316c2628e5ec16864bdd5.png

面对这种问题,其实最简单的方法就是像智谱清言一样,调用代码来解决了。

4a17a4dfae0d7a570d5028ffc289226c.png

可以看到,ChatGPT直接用Python语言字符串的count函数,就能简单搞定。

ea914d96f599d0188259005e1af6d4ea.png

刚刚创业开了所学校的大神卡帕西认为,关键在于需要让AI知道自己能力的边界,才能主动去调用工具

9475927d359e0c7bed50a9b8006b7fb1.png

至于教给大模型判断自己知道不知道的方法,Meta在LLama 3.1论文中也有所涉及。

595320a81cc3c5bd05147a9aa9c71162.png

最后正如网友所说,希望OpenAI等大模型公司,都能在下个版本中解决这个问题。

884498f754737f9ea906433ee1500764.png

GPT Tokenizer试玩
https://gpt-tokenizer.dev
Llama Tokenizer试玩
https://belladoreai.github.io/llama-tokenizer-js/example-demo/build/

参考链接:
[1]https://x.com/diegoasua/status/1816146114573394143
[2]https://www.reddit.com/r/ClaudeAI/comments/1eap6b1/comment/leolf3t/
[3]https://www.reddit.com/r/ChatGPT/comments/1do7cnq/counting_the_rs_a_chat_with_chatgpt/
[4]https://www.reddit.com/r/ChatGPT/comments/1dpfj2c/a_prompt_where_chatgpt_gets_the_strawberry/

量子位年度AI主题策划正在征集中!

欢迎投稿专题 一千零一个AI应365行AI落地方案

或与我们分享你在寻找的AI产品,或发现的AI新动向

c6e756ce764576c284c0359b72c735d6.png

点这里👇关注我,记得标星哦~

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值