会议名称:International Conference on Learning Representations 2024(ICLR 2024)
发布链接:http://arxiv.org/abs/2305.13269
阅读原因
1.方班需要 2.LLM相关
核心内容
把问题拆解为一个个的小问题,通过一个个的小问题逐个递推最终得到需要的结果。比如文章中举出的例子:
就像是下定义一般,先是寻找所谓的执导演员是谁,然后再去依据得到的这个人名去检索出生年份,是一个逐个递推的过程。在问题中,出生年份是目标,定义是某个人的出生年份;该人的定义是执导……
知识链(Chain of Knowledge,CoK):是一个使用异构知识源动态增强 LLM 的框架。
使用推理矫正后得到的知识来指导下一次的推理生成,可以有效避免LLM一本正经胡说八道
自适应 查询生成器 (AQG),专门用于生成针对每个知识源定制的查询。AQG 用途广泛,可以 在微调模型和黑盒 LLM 之间无缝转换;
CoK 逐步纠正原理,确保先前原理的不准确性不会传播到后续步骤;
最后是在一些必须保证真实性的领域例如事实、医学、物理和生物学这些领域上开展了实验,对比了实验结果。
优势
子问题分解,使得开销更小,训练成本更低;结果返回来作用于模型,使得模型能够持续学习新的东西。
不足
既然数据都来源于审查过的网络,那么使用搜索引擎的API来辅助推理是否更加高效呢?