Active Preference Learning for Large Language Models

516 篇文章 3 订阅

已下架不支持订阅

14 篇文章 0 订阅
本文探讨了大型语言模型(LLM)的微调技术,重点是利用直接偏好优化(DPO)并引入主动学习策略。研究提出了一种基于语言模型预测熵和隐含偏好模型确定性的提示/完成对获取函数,以更有效地使用偏好标签,提高学习率和微调性能。实验表明这种方法能改进Oracle标签预算的利用率。
摘要由CSDN通过智能技术生成

本文是LLM系列文章,针对《Active Preference Learning for Large Language Models》的翻译。

摘要

随着大型语言模型(LLM)的能力越来越强,用于与人类意图保持一致的微调技术变得越来越重要。调整这些模型的一个关键考虑因素是如何最有效地使用人力资源,或者在LLM本身被用作预言机的情况下对资源进行建模。从人类或人工智能偏好进行强化学习(RLHF/RLAIF)是这种技术最突出的例子,但它很复杂,而且往往不稳定。直接偏好优化(DPO)最近被提出作为一种更简单、更稳定的替代方案。在这项工作中,我们为DPO开发了一种主动学习策略,以更好地利用偏好标签。基于语言模型的预测熵和DPO优化的隐含偏好模型的确定性度量,我们提出了一个实用的提示/完成对获取函数。我们展示了我们的方法如何提高学习率和对成对偏好数据进行微调的最终性能。

1 引言

2 直接偏好优化

3 主动偏好学习

4 相关工作

5 实验

6 结论与讨论

我们已经展示了一种简单有效的方法,可以改进oracle标签预算用于偏好微调LLM的

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值