谷歌提出全新RLHF方法SPO:消除奖励模型,且无需对抗性训练

CVer祝大家龙年快乐!重磅福利!CVer学术星球春节优惠券来了!为了感谢大家的支持,现在赠送10张50元新用户优惠券(下图左边二维码),10张20元老用户续费券(下图右边二维码),龙年坚持分享更多更好的工作,寒假不停更!助力你的科研和工作!顺利毕业升学,升职加薪!

fc5fad717ce6b85fd444397d2f409ac8.jpeg

转载自:机器之心 | 编辑:小舟

效果更稳定,实现更简单。

大型语言模型(LLM)的成功离不开「基于人类反馈的强化学习(RLHF)」。RLHF 可以大致可以分为两个阶段,首先,给定一对偏好和不偏好的行为,训练一个奖励模型,通过分类目标为前者分配更高的分数。然后通过某种强化学习算法优化这个奖励函数。然而,奖励模型的关键要素可能会产生一些不良影响。

来自卡内基梅隆大学(CMU)和 Google Research 的研究者联合提出了一种简单的、理论上严格的、实验上有效的 RLHF 新方法 —— 自我博弈偏好优化(Self-Play Preference Optimization,SPO)。该方法消除了奖励模型,并且不需要对抗性训练。

695c4257373e5755eeb126d479cacb78.png

论文:A Minimaximalist Approach to Reinforcement Learning from Human Feedback

论文地址:https://arxiv.org/abs/2401.04056

方法简介

SPO 方法主要包括两个方面。首先,该研究通过将 RLHF 构建为两者零和博弈(zero-sum game),真正消除了奖励模型,从而更有能力处理实践中经常出现的噪声、非马尔可夫偏好。其次,通过利用博弈的对称性,该研究证明可以简单地以自我博弈的方式训练单个智能体,从而消除了不稳定对抗训练的需要。

实际上,这相当于从智能体中采样多个轨迹,要求评估者或偏好模型比较每对轨迹,并将奖励设置为轨迹的获胜率。

91579ba37e9577da3e2d8f4b10081632.png

SPO 避免了奖励建模、复合 error 和对抗性训练。通过从社会选择理论(social choice theory)中建立最小最大获胜者的概念,该研究将 RLHF 构建为两者零和博弈,并利用该博弈支付矩阵的对称性来证明可以简单地训练单个智能体来对抗其自身。

550f7e8495485c5fd0ba0853c025786e.png

7e8ca21e42ea91bff5d455b0f78ae123.png

该研究还分析了 SPO 的收敛特性,并证明在潜在奖励函数确实存在的情况下,SPO 能以与标准方法相媲美的快速速度收敛到最优策略。

实验

该研究在一系列具有现实偏好函数的连续控制任务上,证明了 SPO 比基于奖励模型的方法性能更好。SPO 在各种偏好设置中能够比基于奖励模型的方法更有效地学习样本,如下图 2 所示。

be863c079cbd13e470ee79e227bd0346.png

d5461fc92d9adb807037b5a69affbb72.png

ed3630d2ef9a053e07b97eda0ec229c7.png

该研究从多个维度将 SPO 与迭代奖励建模 (RM) 方法进行比较,旨在回答 4 个问题:

  1. 当面 intransitive 偏好时,SPO 能否计算 MW?

  2. 在具有独特 Copeland Winners / 最优策略的问题上,SPO 能否匹配或超过 RM 样本效率?

  3. SPO 对随机偏好的稳健性如何?

  4. SPO 可以处理非马尔可夫偏好吗?

0a28248eff09c81997a2ef36e367566b.png

在最大奖励偏好、噪声偏好、非马尔可夫偏好方面,该研究的实验结果分别如下图 6、7、8 所示:

3b19b7ba8c2ab4f98ff883118c53e5c3.png

36483d2dd9df1b8f4fdbbb1e6bbafd7a.png

032ddca9899c612c713befa0a3640ac4.png

感兴趣的读者可以阅读论文原文,了解更多研究内容。

CVer祝大家龙年快乐!重磅福利!CVer学术星球春节优惠券来了!为了感谢大家的支持,现在赠送10张50元新用户优惠券(左图领取),10张20元老用户续费券(右图领取),龙年坚持分享更多更好的工作,寒假不停更!助力你的科研和工作!顺利毕业升学,升职加薪!

dc438dd97c8070c43a11b284e2b71777.png

计算机视觉技术交流群成立

 
 
扫描下方二维码,或者添加微信:CVer444,即可添加CVer小助手微信,便可申请加入CVer-计算机视觉微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF等。
一定要备注:研究方向+地点+学校/公司+昵称(如目标检测+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

 
 
▲扫码或加微信号: CVer444,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集近万人!

▲扫码加入星球学习
 
 
▲点击上方卡片,关注CVer公众号
整理不易,请点赞和在看
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值