论文浅尝 | 探索基于大模型的知识图谱补全

论文提出了一种新方法,通过将知识图谱的三元组转化为文本序列,利用大型语言模型(LLM)进行知识图谱补全。通过对LLM进行指令微调,如KG-LLaMA和KG-ChatGLM,该方法在三元组分类、关系预测等任务上表现出色,甚至在某些情况下与ChatGPT、GPT-4等超大规模模型的性能相当。
摘要由CSDN通过智能技术生成

e6de7fe50fa41b485af63951e7be799a.png

笔记整理:张溢弛,浙江大学硕士,研究方向为知识图谱

链接:https://arxiv.org/abs/2308.13916

1、动机

知识图谱在众多人工智能任务中发挥着重要作用,但它们经常面临不完整的问题。在本论文中,作者探索了如何利用大型语言模型(LLM)来完成知识图谱补全任务。作者通过将知识图谱中的三元组视为文本序列,并引入了一个名为知识图谱 LLM(KG- LLM)的框架来为这些三元组建模。本文提出的技术利用三元组的实体和关系描述作为提示,并利用LLM的回答进行判定。

2、贡献

为了解决上面提到的这个问题,在本研究中,我们提出了一种使用大型语言模型完成知识图谱的新方法。具体来说,我们将实体、关系和三元组视为文本序列,并将知识图谱补全建模为序列到序列问题。我们使用开放式 LLM对这些序列进行指令调整,以预测三元组或实体/关系的可信度。该方法在几项KG完成任务中取得了更高的性能,本文的贡献可以总结为:

  • 作者提出了一种新的知识图谱补全方法,是目前为止第一项系统地研究利用大语言模型解决知识图谱补全问题的方法。

  • 在多项经典的数据集上的实验结果表明,本文提出的方法在三元组分类、关系预测等任务上面达到了最优结果&#x

  • 7
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值