LLM-2022:InstructGPT【GPT3-(问题和答案拼成一段对话,使用这些对话微调GPT3)->SFT(监督微调)-(SFT的答案排序后的数据集上再训练)->RM->RL(强化学习)】

InstructGPT是基于GPT3的微调模型,通过指示学习和人工反馈的强化学习提高模型与人类意图的匹配度。模型训练分为三个阶段:有监督微调(SFT)、奖励模型(RM)训练和强化学习(PPO)。SFT数据集用于微调,RM数据集用于训练奖励模型,PPO数据集用于强化学习。InstructGPT在真实性和无害性上优于GPT-3,但可能会降低在通用NLP任务上的效果,并对指示过度敏感。
摘要由CSDN通过智能技术生成

一、前言

GPT系列是OpenAI的一系列预训练文章,GPT的全称是Generative Pre-Trained Transformer,顾名思义,GPT的目的就是通过Transformer为基础模型,使用预训练技术得到通用的文本模型。目前已经公布论文的有文本预训练GPT-1,GPT-2,GPT-3,以及图像预训练iGPT。据传还未发布的GPT-4是一个多模态模型。最近非常火的ChatGPT和今年年初公布的[1]是一对姐妹模型,是在GPT-4之前发布的预热模型,有时候也被叫做GPT3.5。ChatGPT和InstructGPT在模型结构,训练方式上都完全一致,即都使用了指示学习(Instruction Learning)和人工反馈的强化学习(Reinforcement Learning from Human Feedback,RLHF)来指导模型的训练,它们不同的仅仅是采集数据的方式上有所差异。所以要搞懂ChatGPT,我们必须要先读懂InstructGPT。

1、InstructGPT是在GPT3上微调,ChatGPT是在GPT3.5上微调

2、该论文展示了怎么样对

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值