【论文解读】InstructGPT : Training language models to follow instructions with human feedback

最近抽空想梳理下GPT的相关工作,现在大模型越来越重要了,可以解决很多很复杂的问题。这里简单梳理一下InstructGPT的相关工作,论文链接:https://arxiv.org/pdf/2203.02155.pdf

一、前言

InstructGPT做了什么,从论文的摘要来描述是:

使语言模型变得更大并不意味着它们本身就能更好地遵循用户的意图。 例如,大型语言模型可能会生成不真实、有毒或对用户毫无帮助的输出。 换句话说,这些模型与其用户不一致。 在本文中,我们展示了一种通过根据人类反馈进行微调,使语言模型与用户在各种任务上的意图保持一致的途径。 从一组标记器编写的提示和通过 OpenAI API 提交的提示开始,我们收集了所需模型行为的标记器演示数据集,我们使用该数据集通过监督学习来微调 GPT-3。 然后,我们收集模型输出排名的数据集,用于通过人类反馈的强化学习进一步微调该监督模型。 我们将生成的模型称为 InstructGPT。 在对我们的即时分布的人类评估中,1.3B 参数 InstructGPT 模型的输出优于 175B GPT-3 的输出,尽管参数少了 100 倍。

简单总结就是:我们能从现实中获取的数据普遍质量不高,导致模型没法深层次理解人类的意图从而输出了一些意义不是很深的结果,这个问题没法通过模型的结构或者参数量进行修复。为此,引入了人工强化学习,直接借助人工提取出更高质量的,能够更深层次反应人类意图的数据信息。

二、InstructGPT 做了什么

先看模型的整体训练流程:
在这里插入图片描述

InstructGPT训练流程中,涉及到两套训练数据集的获取:一套用于有监督微调训练得到一个基础的GPT模型,另外一套用于人工排序训练得到一个激励模型reward model (RM)。

InstructGPT展示了3个训练流程:
(1)先有监督微调训练得到一个基础GPT模型;
(2)人工排序数据集训练得到一个激励模型reward model (RM);
(3)利用步骤(1)的GPT模型和步骤(2)激励模型RM反复交替训练,进行人工强化训练。

步骤(1)就是简单的有监督微调,没啥说的,重点说下步骤(2)和步骤(3)。

步骤(2)中当给定一段输入和对应的4个答案输出ABCD,会让人工进行排序,排序觉得更符合自己期望的答案的在前面。如框架图中展示的D>C>A=B。

现在来到重点,激励模型怎么训练呢?根据上面这个人工排好的顺序,类似于做了一个对比学习,激励模型输出的分数答案靠前的要大于答案靠后的,比如Score_D > Score_C.

在这里插入图片描述

训练好得到激励模型RM后,开始进入步骤(3),步骤(3)就是采用的人工强化学习中的PPO算法进行训练。整体流程结束。
在这里插入图片描述

三、简单总结

总体来说InstructGPT不管在模型的结构上还是训练方式上都没有很大的创新,模型结构保持了GPT的传统结构,仅仅使用了transformer的解码器进行深度堆叠。训练方式上也是直接沿用了传统的强化学习的PPO算法。

InstructGPT最大的贡献是验证了强化学习对当前大模型的重要影响和意义,因为回顾近几年大模型的工作,无非就是两个方向:数据越来越大、模型越来越大。而强化学习属于很早就存在的算法,近几年有些冷门,没怎么受到重要,只是可能很多人都没有想到引入强化学习后可以对大模型带来这么巨大的影响,这是一个很有魄力的尝试。

希望我的分享对你的学习有所帮助,如果有问题请及时指出,谢谢~

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
自然语言处理技术日益发展,就如何让机器能够理解和执行人类指令这一问题,成为了研究的重要方向。这涉及到如何将自然语言和机器学习模型有效地融合,从而让机器能够通过自然语言理解人类的指令,并按照指令进行行动。 据目前的研究表明,最有效的方法是对语言模型进行训练,通过数据驱动的方法,让机器能够理解人类的指令,从而完成特定的任务。要实现这一目标,需要采用一定的语言模型和机器学习算法。 其中,最流行的算法包括序列标注、文本生成、神经机器翻译等。这些算法都能通过对文本进行深度学习来训练模型,从而让机器能够更好地理解指令和完成任务。 然而,一些挑战依然存在。首先,不同的语言之间存在巨大的差异,因此需要针对不同的语言训练不同的模型。其次,语言模型需要和任务场景建立紧密的联系,才能更好地理解和执行指令。 最后,持续的技术进步也需要不断地改进和更新语言模型,以保证在不同的场景下,机器能够更好地理解和执行人类的指令。这意味着,对数据的收集和处理,对算法和模型的优化,都需要不断地实践和创新。 总之,针对语言模型的训练和优化,是实现机器按照人类指令执行的关键。只有通过不断的探索和实践,才能让机器更好地理解我们的指令,并更加有效地完成任务。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值