零样本提示

零样本提示

如今,

经过大量数据训练调整指令的LLM能够执行零样本任务


我们在前一节中尝试了一些零样本示例。


以下是我们使用的一个示例:

提示:

将文本分类为中性、负面或正面。

文本:我认为这次假期还可以。

情感:

输出:

中性

请注意,

在上面的提示中,

我们没有向模型提供任何示例——这就是零样本能力的作用。


指令调整已被证明可以改善零样本学习

Wei等人(2022)


指令调整本质上是在通过指令描述的数据集微调模型的概念。


此外,

RLHF(来自人类反馈的强化学习)已被采用以扩展指令调整

其中模型被调整以更好地适应人类偏好


这一最新发展推动了像ChatGPT这样的模型。


我们将在接下来的章节中讨论所有这些方法


当零样本不起作用时,

建议在提示中提供演示或示例

这就引出了少样本提示


在下一节中,

我们将演示少样本提示

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值