Bidirectional Attentive Memory Networks for Question Answering over Knowledge Bases
Knowledge Bases)
origin
2019 naacl
yu Chen
Rensselaer Polytechnic Institute
Lingfei Wu
IBM Research
Mohammed J. Zaki
Rensselaer Polytechnic Institute
motivation
本文主要研究基于知识图谱的问答问题。KGQA的方法大致可以分为基于语义分割和信息检索的方法。基于语义分割的方法是建立一个语义分割器,将问题转化成可以在KG上执行的逻辑表达式的形式。这类方法通常是预先一组词汇触发器或者规则,因此限制领域以及规模。基于信息检索的方式根据从问题里传达的信息直接从KG中直接检索。
过去解决KGQA问题的基于信息检索的方法主要是通过基于embedding的方法,这类方法往往忽略了问题和KG之间的交互,例如实体的类型、 关系路径以及上下文。本文提出了双向注意力内存网络用于KGQA,增加问题和知识库的交互,知识库可以更好的帮助理解问题,问题可以更加关注知识库中更重要的部分。BAMnet 在WebQestion 数据集上取得了SOTA效果。
model
整体上分为input module 、memory module、reasoning module 和 answer module等四个模块。接下来详细介绍每个模块
input module:
输入一个问题 Q Q Q,是一个word embedding 序列,使用Bi-lstm 模型编码问题,得到问题编码 H Q ∈ R d ∗ ∣ Q ∣ H^Q \in R^{d*|Q|} HQ∈Rd∗∣Q∣
memory module:
1.确定候选答案集合:
首先确定topic entity , 和topic entity 在h hops 联通的所有实体构成的集合 { A i } i = 1 ∣ A ∣ \{ A_i\}_{i=1}^{|A|} {
Ai}i=1∣A∣
2.知识图谱表示:
answer type: 实体的类型和问题也是息息相关的, 比如问题中含有where等词汇,则concept of location 可能是候选答案。 使用Bi-lstm 编码entity description 得到一个d 维的向量 H i t 1 H^{t_1}_i Hit1
answer path : topic entity 和 candidate entity 之间的关系路径 作为answer path , 本文使用了两种方式来编码路径 第一种使用bi-lstm 编码关系路径得到 H i p 1 H^{p_1}_i Hip1