OpenAI突发新模型:用GPT改进GPT训练,左脚踩右脚登天,RLHF突破人类能力上限

梦晨 发自 凹非寺
量子位 | 公众号 QbitAI

OpenAI突然发布新模型!基于GPT-4训练,可以帮助下一代GPT训练

CriticGPT,用于给代码挑Bug时能找到75%以上,而相比之下人类只能找到不到25%。

它还可以给Bug写“锐评”,在60%的情况下人类训练师更喜欢有CriticGPT帮助下的批评。

8dcc22170b94820ac7a1b8981a5f69ed.png

有网友开玩笑说,“只会批评的GPT,这不是我前妻么”。

48e9cd0732891ab9b640150f25fca53e.png

但这项研究最重要之处在于,CriticGPT挑错能力可以泛化到代码之外。

比如在RLHF训练中给AI的输出挑错,而且已经进入OpenAI内部训练流程

d17e5e13f01263f1678816d13e6206e9.png

更好的RLHF就能训练出更强的模型,更强的模型又能通过更好地挑错来增强RLHF训练……

论文结论中赫然写道:在真实世界数据中挑错误上,AI还可以继续进步,人类智能已经到头了。

31ddb1934c6e1afbc19b66c7df96ac75.png

左脚踩右脚上天,难道真的被这帮人给搞出来了?

f3caa39fe0b0ca3e240a9aa75509d1a2.gif

这是一篇来自被解散的超级对齐团队的“遗作”,由前负责人Jan Leike带队。

而Leike本人已经跳槽去了隔壁Anthropic,继续做这类研究。

bfc690516c7325201968b2b49d264612.png

基于GPT-4,改进GPT-4

OpenAI官网文章变相承认了,GPT-4之后这么久没有大的改进,还真的遇到一些瓶颈:

随着AI能力变强,它犯的错也不那么显眼了,人类训练师都难以发现不准确之处。

人类给不出反馈,那RLHF“人类反馈强化学习”就无从谈起了。

4921d3a9fb4f77b4722c08cae8b0d367.png

CriticGPT正是为了应对这一挑战而生。

CriticGPT基于GPT-4,也接受了RLHF训练出,但特别之处在于训练数据中包含大量的错误输入。

具体来说,分为三步:

  1. 让人类标注员在ChatGPT生成的代码里故意植入一些微妙的bug。

  2. 标注员扮演代码审查员的角色,写下他们对这些bug的评论。

  3. 用这些数据来训练CriticGPT,让它学会如何发现和指出代码中的问题。

88b4c5de6342f0e6473c097ddce0855d.png

在具体训练过程中,他们还玩了点花样。

比如不断让标注员验证自己插入的bug是否足够隐蔽,能够骗过当前版本的CriticGPT。这样一来,CriticGPT就被迫不断进化,学会发现越来越隐蔽的问题。

思路有点像GAN的左右互搏,只不过生成器这个位置是人类来充当的……

最后,OpenAI还使用了一种“强制采样束搜索”(FSBS)的技术,允许CriticGPT在生成评论时既能保持全面,又能减少”幻觉”和“鸡蛋里挑骨头”现象。

具体来说,FSBS会强制模型生成多个不同的评论片段,用奖励模型对这些片段进行评分,最后根据评分和一个长度修正因子来选择最佳的评论组合。

通过调整长度修正因子,可以在评论的全面性和准确性之间找到最佳平衡点,既不会错过重要问题,又不会过度挑剔。

d01122c3f491cadbc052ec8e4bd1d110.png

等一下,推理时搜索,这不正是和传闻中的Q*一个思路,这次居然写到了论文里。

可能是看外部团队(如颜水成)按这一思路的研究已经够多了,就不再藏着掖着了。

3a3315159500de50cdb934bd35392f83.gif

说回到CriticGPT,取得了哪些结果呢?

  • 在发现人为插入的bug方面,人类审核员平均只能找到25%,而CriticGPT的成功率高达75%以上

  • 在评估自然出现的Bug时,有63%的情况下人类更倾向于选择CriticGPT的评论而非人类评论

  • CriticGPT的评论被认为比ChatGPT的更全面,更少出现”幻觉”和无关紧要的挑剔

  • 在评估非代码任务时,成功识别出数百个在ChatGPT训练数据中被人类认为是”完美”的错误。

不过CriticGPT也不是十全十美,它也会有”幻觉”问题,指出一些实际上不存在的问题。

目前,人类和CriticGPT组队工作效果最好:既能发现大部分问题,又能避免AI的”幻觉”。

55100886b0af542e29549bb9d6cf00d4.png

RLHF上限不再是人类

对于CriticGPT,负责这项研究的Jan Leike也补充了他自己的一些看法。

b6c38bd4965844029817f4f41c36ee00.png

RLHF是创造出ChatGPT的核心技术之一,但隐患在于人类能力就是RLHF的天花板。

当需要AI去解决人类无能为力的任务时,人类给不出相应反馈,AI也就无法改进了。

CriticGPT的成功,意味着超级对齐团队设想中的可扩展监督,也就是用弱模型监督训练更强的模型,终于有希望了。

81026b69ef418a9b6252790aebe24fda.png

不过他也透露,目前CriticGPT并没有帮助人类显著提高艰难任务上的准确性,但是框架有了只要有更好的预训练模型就能不断改进。

bc90142d4171018e858f9a29f0fc6d9c.png

为什么先从代码任务开始入手呢?

一方面,代码任务有现实意义,做出来的模型可以直接用上。

另一方面,代码可以清晰明确的评估,比开放式对话更客观,更容易评估CriticGPT发现的问题是否真实和重要。

结果CriticGPT在代码上训练,却不仅能挑代码Bug,还给1/4的ChatGPT生产数据挑出了问题。

ab79a3000225b3a9360ce73dd2bc5d9e.png

最后,由于原OpenAI超级对齐团队已经解散,已经跳槽的Jan Leike插入了一条Anthropic招聘广告:

想做后续研究的请去隔壁。

也是让人不得不感叹硅谷是真的没有竞业协议。

0a2e64a3a7e0480b0e4488dd2877e174.png

One More Thing

同日,谷歌发布了开源大模型Gemma 2,OpenAI赶紧甩出一条消息来狙击,这都第几次了。

4d761682c709a8ea127b6c6bd0b68781.png

对于甩出来的不是Sora公测或者GPT-4o完整语音、视频模式,也有很多人不满。

有网友提了个更好的主意:

做个ReleaseGPT,专门用来发布承诺好的更新吧。

7af4c4828b89dac8fb3fcfb8414ca624.png

不过这次OpenAI久违的放出了论文,也还算有一些诚意。

论文地址:
https://cdn.openai.com/llm-critics-help-catch-llm-bugs-paper.pdf

参考链接:
[1]https://openai.com/index/finding-gpt4s-mistakes-with-gpt-4/
[2]https://x.com/janleike/status/1806386442568142995

量子位年度AI主题策划正在征集中!

欢迎投稿专题 一千零一个AI应365行AI落地方案

或与我们分享你在寻找的AI产品,或发现的AI新动向

16098823076515c67716d0e7c55fea2c.png

点这里👇关注我,记得标星哦~

  • 7
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值