KBQA
「已注销」
遇见更好的自己
展开
-
Modeling Semantics with Gated Graph Neural Networks for Knowledge Base Question Answering读书笔记
通过GGNN对semantic graph进行打分 框架 1.semantic graph的生成 识别问句中的entity(S-MART工具),再通过定义的个action生成所有可能的查询图 2.semantic graph打分 通过GGNN,经过多次领域信息融合,最终将question node的表征通过非线性变换得到查询图的表征,与问题表征计算余弦相似度 3.训练 ...原创 2019-02-18 16:13:55 · 670 阅读 · 0 评论 -
Convolutional Neural Network-based Question Answering over Knowledge Base with Type Constraint读书笔记
主要贡献为加入了type constraint提高QA的准确率 将QA分为两个步骤:Relation Detection和Answer Type Prediction Relation Detection 假设问题只有一个topic entity,通过WEBQSP数据集直接得到每个问题的topic entity 然后将所有从topic entity出发的两跳以内的关系作为候选关系 将候...原创 2019-02-19 10:42:53 · 372 阅读 · 0 评论 -
KBQA: Learning Question Answering over QA Corpora and Knowledge Bases读书笔记
主要思想是找到问题中的topic entity, 替换为类型后得到模板(template),映射到知识图谱中的谓词(predicate),再找到答案。 模板生成方法: 找到问题中可能的实体,判断实体可能的类型,将实体词替换为类型符号,例如How many people are there in $City? 模板到谓词的概率由最大化训练数据的概率来估计,由于有隐变量(template...原创 2019-02-19 21:10:26 · 641 阅读 · 0 评论 -
Open Domain Question Answering Using Early Fusion of Knowledge Bases and Text读书笔记
本文考虑如何同时利用Knowledge Graph和text来回答问题。主要思想是构建问题子图(包含KG和text),然后利用图表示学习方法,选出答案。 问题子图构建: KB查询:在question中做entity linking得到seed entities,然后利用Personalized PageRank寻找周围可能的实体。边权重由边类型决定,边类型的权重由边的word e...原创 2019-02-25 15:44:40 · 1021 阅读 · 0 评论 -
Neural Symbolic Machines: Learning Semantic Parsers on Freebase with Weak Supervision读书笔记
利用Lisp语言的形式表示问题的semantic,可以通过程序执行得到检索答案 整个系统由三部分组成:computer,programmer,manager computer是可以执行程序的部分 manager是提供weak supervision的部分 主要的解析部分为programmer programmer基于带attention的seq2seq模型,为了使得程序能够解...原创 2019-02-25 15:59:46 · 525 阅读 · 0 评论 -
Neural Network-based Question Answering over Knowledge Graphs on Word and Character Level读书笔记
针对simple question word embedding同时采用两种level的embedding 再分别对question,entity和predicate建模,都是利用词序列过GRU得到表征,计算余弦相似度 candidate entity生成方法: 1.一个实体与问题中的n-gram完全match,加入候选集 2.如果一个n-gram被包含在更大的n-gra...原创 2019-02-20 17:57:28 · 833 阅读 · 0 评论 -
Character-Level Question Answering with Attention读书笔记
针对simple question char-level LSTM得到句子表征序列 char-level CNN建模entity和predicate 利用LSTM decoder生成entity和predicate: 每次输入context向量和input向量,t=0是input为0,t=1 train时 input为true entity embedding,test时input...原创 2019-02-20 20:12:54 · 272 阅读 · 0 评论