论文浅尝 | 用可微的逻辑规则学习完成知识库推理

本文介绍了一种可微的逻辑规则学习模型——NeuralLP,用于知识库推理。该模型从TensorLog中获得灵感,解决了传统方法中实体无关性和可微性的问题。通过学习规则结构和置信度,NeuralLP使用RNN和注意力机制进行推理,表现出强大的归纳推理能力。实验表明,NeuralLP在统计关系学习、路径寻找、知识库补全和问答等任务上表现优秀。
摘要由CSDN通过智能技术生成

640?wx_fmt=png

CitationFan Yang,Zhilin Yang, William W. Cohen. Differentiable Learning of Logical Rules for Knowledge Base Reasoning. ICLR 2017.

动机

本文提出了一个可微的基于知识库的逻辑规则学习模型。现在有很多人工智能和机器学习的工作在研究如何学习一阶逻辑规则,规则示例如下图:

640?wx_fmt=png

形式化本文关心的逻辑规则如下:

640?wx_fmt=png

每一个规则由多个约束条件组合而成,并且被赋予一个置信度 α,其中query(Y,X) 表示一个三元组,query 表示一个关系。


不同于基于 embedding 的知识库推理,规则应该体无关的,规则可以用于任何新添加到知识库中的体,但在知识库 embedding 方法里,新添加到知识库中的体由于没有对应的表示,无法就行相关的推理。

不同于以往的基于搜索和随机游走的规则学习方法,本文的目标是提出一个可微的一阶谓词逻辑规则学习模型&

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值