ChatGPT的前置InstructGPT

论文:Training language models to follow instructions with human feedback

InstructGPT模型在GPT-3基础上进一步强化。InstructGPT使用来自人类反馈的强化学习方案RLHF(reinforcementlearningfromhumanfeedback),通过对大语言模型进行微调,从而能够在参数减少的情况下,实现优于GPT-3的功能。

InstructGPT提出的背景:使语言模型更大并不意味着它们能够更好地遵循用户的意图,例如大型语言模型可以生成不真实、有毒或对用户毫无帮助的输出,即这些模型与其用户不一致。另外,GPT-3虽然选择了少样本学习(few-shot)和继续坚持了GPT-2的无监督学习,但基于few-shot的效果,其稍逊于监督微调(fine-tuning)的方式。

基于以上背景,OpenAI在GPT-3基础上根据人类反馈的强化学习方案RHLF,训练出奖励模型(rewardmodel)去训练学习模型(即:用AI训练AI的思路)

具体来说,该方法包括以下步骤:

定义指令:首先,定义指令集合,即人类需要模型生成的语言指令。这些指令通常是任务相关的,例如完成一项任务或回答某个问题。

生成指令:通过 InstructGPT 生成一个或多个备选指令,每个指令都对应一个相应的生成概率。这些备选指令会显示在屏幕上供人类评估。

人类反馈:人类对生成的备选指令进行评估,并提供一个奖励信号,表示该指令与预期指令的匹配程度。奖励信号可以表示为基于 BLEU、ROUGE 等指标的分数。

强化学习训练:根据人类反馈,训练模型以优化生成指令的质量。具体来说,使用强化学习算法,将生成的指令和人类反馈作为训练数据,迭代训练模型,以最大化生成指令的奖励信号。

该方法的优点是可以让语言模型更加有针对性地生成文本,以适应特定任务或场景,并且可以根据人类反馈进行动态调整,提高生成文本的质量和多样性。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值