Back to Basics: Revisiting REINFORCE Style Optimization for Learning from Human Feedback in LLMs

本文探讨在大型语言模型(LLM)中,如何利用强化学习(RLHF)从人类反馈进行优化。研究发现,尽管PPO在RLHF中被广泛应用,但其高计算成本和超参数敏感性限制了效率。通过简化方法,作者提出使用增强型优化变体,如朴素策略梯度(Naive PG),在RLHF背景下表现优于PPO和其他无RL方法。实验结果支持了这种方法,显示REINFORCE估计器在奖励优化方面具有高效率,而RLOO作为一种多样本扩展,优于RAFT、DPO和PPO,同时保持高鲁棒性。
摘要由CSDN通过智能技术生成

本文是LLM系列文章,针对《Back to Basics: Revisiting REINFORCE Style Optimization for Learning from Human Feedback in LLMs》的翻译。

回到基础:重新审视LLM中从人的反馈中学习的强化风格优化

摘要

从人类反馈中强化学习(RLHF)形式的人工智能对齐越来越被视为高性能大型语言模型的关键组成部分。最近的文献将近端策略优化(PPO)定位为RLHF RL部分的规范方法。然而,它涉及高计算成本和敏感的超参数调整。我们假设,导致PPO发展的大多数动机原则在RLHF中不太受实际关注,并主张使用一种计算成本较低的方法来保持甚至提高性能。我们重新审视了RL背景下人类偏好的对齐公式。保持简单性作为指导原则,我们表明在RLHF背景下,PPO的许多组成部分是不必要的,而且更简单的增强型优化变体优于PPO和新提出的“无RL”方法,如DPO和RAFT。我们的工作表明,对LLM对齐特性的仔细调整能够以低成本受益于在线RL优化。

1 引言

2 背景

3 从PPO到增强

4 实验设置

5 结果与讨论

6 结论

在高水平上,这

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值