[论文阅读]Chain-of-Knowledge: Grounding Large Language Models via Dynamic Knowledge Adapting over Hetero

会议名称:International Conference on Learning Representations 2024(ICLR 2024)

发布链接:http://arxiv.org/abs/2305.13269

阅读原因

1.方班需要 2.LLM相关

核心内容

把问题拆解为一个个的小问题,通过一个个的小问题逐个递推最终得到需要的结果。比如文章中举出的例子:

就像是下定义一般,先是寻找所谓的执导演员是谁,然后再去依据得到的这个人名去检索出生年份,是一个逐个递推的过程。在问题中,出生年份是目标,定义是某个人的出生年份;该人的定义是执导……

知识链(Chain of Knowledge,CoK):是一个使用异构知识源动态增强  LLM 的框架。

使用推理矫正后得到的知识来指导下一次的推理生成,可以有效避免LLM一本正经胡说八道

自适应  查询生成器 (AQG),专门用于生成针对每个知识源定制的查询。AQG 用途广泛,可以  在微调模型和黑盒 LLM 之间无缝转换;

CoK 逐步纠正原理,确保先前原理的不准确性不会传播到后续步骤;

最后是在一些必须保证真实性的领域例如事实、医学、物理和生物学这些领域上开展了实验,对比了实验结果。

优势

子问题分解,使得开销更小,训练成本更低;结果返回来作用于模型,使得模型能够持续学习新的东西。

不足

既然数据都来源于审查过的网络,那么使用搜索引擎的API来辅助推理是否更加高效呢?

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值