摘要
知识图的归纳关系预测旨在预测两个新实体之间缺失的关系。以往关于关系预测的研究大多局限于换能型环境,无法应用于换能型环境。近年来,人们提出了一些通过学习拓扑语义来处理该问题的归纳方法。然而,它们仅仅依赖于结构信息,忽视了先验知识的作用。在稀疏结构的情况下,这种限制被放大,从而阻碍了归纳能力。先验知识不仅可以过滤掉无效的拓扑结构,还可以补充拓扑语义。为此,我们提出了一种新的归纳模型,plc,它结合了上下文语义的提示学习,以充分利用先验知识。为了过滤掉不相关的拓扑结构,我们创新地使用硬提示来挖掘预训练语言模型(PLMs)中的先验知识,作为提取子图的基础。此外,我们通过在初始化期间将关系文本描述集成到关系嵌入中来增强语义表示,补充了拓扑语义。在四个基准数据集上的实验结果表明,plc优于现有的最先进的方法。