UNIFIED RETRIEVAL AND REASONING FOR SOLVING MULTI-HOP QUESTION ANSWERING OVER KNOWLEDGE GRAPH

71 篇文章 9 订阅 ¥99.90 ¥299.90
515 篇文章 3 订阅

已下架不支持订阅

本文提出UniKGQA,一种统一检索和推理的新方法,用于多跳知识图谱问答。通过结合预训练语言模型的语义匹配和信息传播,以及专门的检索和推理学习策略,提高了在大规模知识图上的问答效果。实验证明其在多个基准数据集上的有效性。
摘要由CSDN通过智能技术生成

本文是LLM系列文章,针对《UNIKGQA: UNIFIED RETRIEVAL AND REASONING FOR SOLVING MULTI-HOP QUESTION ANSWERING OVER KNOWLEDGE GRAPH》的翻译。

UNIKGQA:解决知识图谱上多跳问题的统一检索与推理

摘要

知识图谱上的多跳问答(KGQA)旨在寻找在大规模知识图上与自然语言问题中提到的主题实体相距多跳的答案实体。为了应对庞大的搜索空间,现有的工作通常采用两阶段的方法:首先检索与问题相关的相对较小的子图,然后对子图进行推理,以准确地找到答案实体。尽管这两个阶段高度相关,但以前的工作使用了非常不同的技术解决方案来开发检索和推理模型,忽略了它们在任务本质上的相关性。在本文中,我们提出了UniKGQA,这是一种用于多跳KGQA任务的新方法,通过在模型架构和参数学习中统一检索和推理。对于模型架构,UniKGQA包括一个基于预训练语言模型(PLM)的语义匹配模块,用于问题关系语义匹配,以及一个匹配信息传播模块,用于沿着KGs上的有向边传播匹配信息。对于参数学习,我们为检索和推理模型设计了一个基于问题关系匹配的共享预训练任务,然后提出了面向检索和推理的微调策略。与以往的研究相比,我们的方法更加统一,将检索和推理阶段紧密联系在一起。在三个基准数据集上的大量实验已经证明了我们的方法在多跳KGQA任务上的有效性。我们的代码和数据可在

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值