【LLM 论文】背诵增强 LLM:Recitation-Augmented LM

论文:Recitation-Augmented Language Models
⭐⭐⭐
ICLR 2023, Google Research, arXiv:2210.01296
Code:github.com/Edward-Sun/RECITE

文章目录

论文速读

论文的整体思路还是挺简单的,就是让 LLM 面对一个 question,首先先背诵(recitation)一遍自己知道的相关段落,然后再回答答案,如下图所示(最右边的是 Recitation-augmented Generation):

实现的方式就是通过 in-context learning,为 LLM 提供几个带有 recitation 的 few-shot exemplars。

这种 two-step 的范式,将原来的知识密集型任务分解为了两个子任务:knowledge-recitation 和 task-execution,前者可以视为一种中间的知识获取步骤(从 LLM 的内部参数中)。

论文还举了一个例子来说明为什么这种方法可行。比如问题是“ π \pi π 的第十位小数是什么”,也许 LLM 的训练资料中没有关于这个问题的直接回答,但是它可能可以背出“ π \pi π 的前面的数字是 3.1415926535”,这样他就可以回答出答案是 5。

另外,论文还尝试与 self-consistency 和 multi-hop 多轮背诵的方法进行结合来解决更加复杂的问题,如下图:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值