笔记整理:金龙,浙江大学硕士,研究方向知识图谱
链接:https://aclanthology.org/2022.coling-1.156/
动机
知识图谱上回答自然语言问题(KGQA)仍然多跳推理面临的一个巨大的挑战。以前的方法通常是利用大规模的实体相关文本体或知识图谱嵌入(KGE)作为辅助信息,却忽略了关系路径所隐含的丰富语义。本文提出利用关系路径的混合语义来改进多跳KGQA,通过在旋转和放缩实体链接预测,整合了关系路径的显性文本信息和隐性KG结构特征。
贡献
(1)利用现成关系路径的混合特征的新角度提出了 KGQA 方法。通过系统地融合显式文本信息和基于新型旋转缩放 KG 链接预测的候选关系路径的隐式 KG 嵌入特征。
(2)揭示了问题和关系路径作为主题实体和目标实体之间对应关系的两个方面,两者高度相关但又是相互补充。
方法
本论文提出的方法如下图所示: