2012年,谷歌公司正式提出知识图谱的概念。作为人工智能应用的关键技术,知识图谱具有清晰的三元组结构,在一个三元组中包含头实体、关系和尾实体,令 GG 表示知识图谱,有 G∈(E,R,S)G∈(E,R,S) ,其中 E={e1,e2,⋯,e∣E∣}E={e1,e2,⋯,e∣E∣} 表示所有实体集合, R={r1,r2,⋯,r∣R∣}R={r1,r2,⋯,r∣R∣} 表示所有关系集合,采用三元组的形式来存储大型知识库的知识信息,可以更方便地融合各个领域的知识[1]。目前,已经出现了众多大规模的知识图谱,诸如Freebase、Wordnet、中文知识图谱OpenKG等。然而,与客观世界相比,这些构建的知识图谱往往是不够完整的,缺失了大量的事实[2]。为缓解数据的稀疏性问题,研究人员提出了知识图谱表示学习,其目的就是将知识图谱中的实体和关系投影到连续低维的向量空间[3],提升知识图谱上的推理能力 。
知识图谱表示学习可以分成三类:几何模型、矩阵分解模型和深度学习模型。几何模型中,最经典的知识图谱表示学习模型是TransE模型[4],Lin等[5]为了在Trans系列模型的基础之上融入路径信息,提出PTransE[5]模型。矩阵分解模型中,DistMult模型[