本文是LLM系列文章,针对《KICGPT: Large Language Model with Knowledge in Context for
Knowledge Graph Completion》的翻译。
摘要
知识图谱补全(KGC)对于解决知识图谱不完备问题和支持下游应用至关重要。已经为KGC提出了许多模型。它们可以分为两大类:基于三元组的方法和基于文本的方法。由于结构信息有限和实体分布不平衡,基于三元组的方法难以处理长尾实体。基于文本的方法可以缓解这一问题,但需要对语言模型进行昂贵的训练,并对知识图谱进行特定的微调,这限制了它们的效率。为了缓解这些限制,在本文中,我们提出了KICGPT,这是一个集成了大型语言模型(LLM)和基于三元组的KGC检索器的框架。它在不产生额外训练开销的情况下缓解了长尾问题。KICGPT使用一种称为“知识提示”的上下文学习策略,将结构知识编码为演示,以指导LLM。在基准数据集上的经验结果证明了KICGPT在较小的训练开销和无需微调的情况下的有效性。代码和数据将在https://github.com/WEIYanbin1999/KICGPT可用。
1 引言
2 相关工作
3 方法
4 实验
5 结论
在本文中,我们提出了KICGPT,这是一个集成LLM和传统KGC方法进行链接预测的有效框架,以及一种称为知识提示的新ICL策略。KICGPT将LLM作为一个额外的知识库。与基于文本的