知识图谱嵌入大总结:难点、方法、工具、和图嵌入的区别


2024.12.25首发
2024.12.30更新
2025.1.1更新
2025.1.3更新
2025.1.6更新
本文回答以下问题:

  • 知识图谱嵌入是什么,和图嵌入的区别?

  • 什么是语义信息和结构信息,模型如何同时保留这两种信息?

  • 知识图谱嵌入有哪些难点、方法和工具

1.概念

请添加图片描述

知识图谱嵌入(Knowledge Graph Embedding, KGE)是指将知识图谱中的实体和关系映射到低维连续向量空间的过程。这一过程旨在保留原始知识图谱中的结构信息和语义信息,以便于后续的机器学习任务如链接预测、实体分类等。

注1:KGE得到的向量不是通用的,只合适一些特定的任务:
(1)链接预测(最适合):
原因:KGE模型通过学习实体和关系的低维表示,能够捕捉到实体之间的潜在关联模式。因此,它们非常适合用于预测知识图谱中缺失的链接或新出现的关系。
(2)实体分类/聚类:
原因:由于KGE保留了实体间的结构信息,相同类别或相似类型的实体在嵌入空间中往往更接近。这使得KGE向量可以直接用于分类或聚类算法,以识别具有相似特征的实体群组。
(3)推荐系统:
原因:在推荐场景中,用户和物品可以被建模为知识图谱中的实体,并且它们之间的交互(如购买、评分等)作为关系。利用KGE可以获得更好的个性化推荐结果,因为它不仅可以基于直接的用户-物品互动,还可以考虑间接的多跳关系。
(4)问答系统(Q&A):
原因:对于需要从结构化数据中检索答案的问题,KGE可以帮助快速定位相关实体和事实,从而提高问答系统的准确性和效率。
(5)路径查询与推理:
原因:KGE模型通常能很好地处理多步推理问题,即通过一系列中间实体来推断两个实体之间的关系。这对于执行复杂的路径查询非常有用。

补充一段话,我觉得总结的很好,更能理解KGE在做什么
来自:https://zhuanlan.zhihu.com/p/354867179

在这里插入图片描述

什么是结构信息和语义信息?

结构信息

**结构信息指的是数据内部的组织方式和关系模式。**它通常涉及数据元素之间的连接、排列和布局。结构信息对于理解数据的整体框架和组成至关重要。不同类型的数据有不同的结构信息表现形式,对于图而言,其结构信息主要是节点之间的连接方式(边的存在与否)、节点的度(连接的数量)、图的连通性等。

语义信息

**语义信息指的是数据所传达的意义和内容。**它涉及数据元素的含义及其之间的关系。语义信息对于理解数据的实际意义和用途至关重要。同样,不同类型的数据有不同的语义信息表现形式,对于图而言,其语义信息包括节点代表的实体(如人、地点、事物)及其属性,边代表的关系(如朋友、隶属、连接)等。

请添加图片描述

简言之:结构信息提供了数据的形式,语义信息提供了数据的内容:如去掉图谱中所有节点和关系的属性,只留下一张空图,这个就是这张图的结构信息;将节点和关系的属性填充回去,每个节点和边都有了具体的类别和含义,这个就是这张图的语义信息。两着是相互依存的。
比如KGE和GE本质都是基于图的结构进行嵌入但是他可以学习到一些语义信息,比如在一些任务中我们可以假设:具有相同结构的节点其语义相近。

演变趋势

早期的KGE研究主要集中在结构信息的保留上,但随着技术的发展,越来越多的方法开始重视并尝试融合语义信息。一个好的KGE系统应当能够平衡结构信息和语义信息,既保留了知识图谱的结构特性,又不失其语义含义。

如何同时保留结构信息和语义信息?
- 混合模型: 将结构信息和语义信息结合在一个模型中,例如,在图嵌入中同时考虑节点的属性信息和图的结构信息。
- 多任务学习: 通过多任务学习框架,同时优化多个目标,例如,既考虑节点分类任务(语义信息)又考虑链路预测任务(结构信息)。
- 注意力机制: 在序列数据处理中,使用注意力机制来动态地调整不同部分的重要性,从而同时捕捉结构信息和语义信息。

以下是一些KGE领域中的方式,同时学习结构和语义信息:

  1. 复杂模型:一些较新的KGE模型(如ComplEx, RotatE)使用复数域或特殊运算(如旋转),这使得它们不仅能更好地模拟对称性和反对称性等结构属性,而且能表达更复杂的语义关系。

  2. 文本描述:结合实体的文本描述(如Wikipedia摘要)可以增强嵌入的语义丰富度。这种方法通常会利用预训练的语言模型(如BERT)生成文本的向量表示,并将这些表示融入到最终的知识图谱嵌入中。

  3. 多模态数据:除了结构和文本外,还可以考虑其他形式的数据,如图像、音频等,以提供更加全面的语义上下文。

  4. 上下文感知:某些高级模型尝试理解实体和关系的具体应用场景,即根据不同的上下文来调整其嵌入表示。这有助于解决一词多义等问题,并且可以在不同场景下正确地解释相同的实体或关系。

关于嵌入和结构信息、语义信息的更全面了解,可以看我的另外一篇总结:https://blog.csdn.net/xiangxiang613/article/details/143798363

2.KGE VS GE(图嵌入)

共同点和区别?

知识图谱嵌入(Knowledge Graph Embedding, KGE)和图嵌入(Graph Embedding, GE)是两个相关但有所区别的概念,它们都涉及到将图结构中的信息映射到低维向量空间中。

(1) 共同点
  • 目标:两者的目标都是为了将复杂的图结构数据转换为数值型向量表示,以便于后续的机器学习任务,如分类、聚类、链接预测等。
  • 方法论:两种嵌入方法都可能使用相似的技术手段,例如矩阵分解、随机游走、深度学习模型(如图卷积网络GCNs)、以及基于距离或相似度的方法。
(2) 区别

A.知识图谱嵌入(KGE)
在这里插入图片描述

  • 特定结构:KGE专注于处理知识图谱,这是一种特殊的图结构,其中节点代表实体(如人、地点、事件),边代表这些实体之间的关系(如“出生于”、“位于”)。因此,KGE需要特别考虑如何编码这些语义丰富的三元组(头实体-关系-尾实体)。
  • 语义信息:由于知识图谱中的边具有明确的语义含义,**KGE往往更加强调保留这种语义信息。**例如,某些关系可能是对称的、反身的或传递的,而KGE模型需要能够捕捉这些特性。
  • 复杂模式:KGE必须处理更加复杂的模式,如多跳推理(即通过多个中间实体进行推断)和关系的组合效应(如“朋友的朋友可能是朋友”)。
  • 应用领域:KGE广泛应用于推荐系统、问答系统、自然语言处理等领域,特别是在涉及大量结构化事实库的情况下。

B.图嵌入(GE)
在这里插入图片描述

  • 通用性:**GE适用于各种类型的图结构,不限于知识图谱。**它可以用于社交网络、生物网络、化学分子结构等多种场景。在这些情况下,边不一定有明确的语义标签,更多地关注节点之间的连接模式。
  • 结构优先:相较于KGE,GE通常更侧重于保持图的整体拓扑结构特征,如节点间的邻接关系、社区结构等。它可能不强调具体的关系类型或语义信息。
  • 算法多样性:GE涵盖了从浅层方法(如DeepWalk, node2vec)到深层方法(如图神经网络GNNs)的一系列技术。这些方法可以适应不同类型的任务需求,如节点分类、链接预测、图分类等。
  • 应用场景:GE的应用范围非常广泛,包括但不限于社交分析、推荐系统、生物信息学、网络安全等领域。它可以帮助揭示隐藏在网络结构背后的信息,并支持基于网络的决策过程。

深入理解

  • GE默认是针对同质图(节点和边都只有一种类型,如社区网络)提出的,其核心关注点在于对节点进行嵌入,只考虑保留图的结构信息和局部连接信息(节点之间的连接信息),强调的是同质性和结构性的平衡。若两个节点的向量相似,则表示其结构更相似或者距离更近。
同质性:结构相同的节点其embedding更相似
结构性:距离更近的节点其embedding更相似
  • KGE是针对异质图的(知识图谱就是),强调针对语义信息进行嵌入(结构信息只使用了一跳信息,比较局限,对比GNN,其可以使用多跳关系建模高阶结构信息),将节点和关系同时映射到语义空间,使语义相似的节点更接近,换句话说,若两个节点的向量相似,则表示它们的语义更相似或者在语义空间中的距离更近。
  • KGE和GE都能处理一些相同的任务(如链接预测和节点分类),但背后的逻辑是完全不同的,虽然表面上看都是基于节点相似度,但GE和KGE的节点相似度的含义是不一样的(上面讲了),所以两者的适合的任务场景是不同的。
  • KGE的局限性:KGE没有想象中那么强大,无论是基于翻译距离还是语义匹配的KGE算法,其都是针对三元组打分提出的(给定一个三元组,判断其成立的置信度,换个角度,可以理解为图谱补全),这种训练目标,导致其只能学习到局部信息(一阶结构信息,本质上没有用到节点和关系的属性信息,如节点名称),也学习不到图的全局信息。只有扩展链路,才能学习到高阶的结构和语义信息,这方面,GE通过随机游走可以增加连通信息,GNN通过消息传递可以学习多跳领域信息。
  • 从理论设计上来说,GNN优于GE,GE优于KGE。

GE的方法可否用于KGE?

图嵌入(Graph Embedding, GE)的方法确实可以用来处理知识图谱(Knowledge Graph, KG),但需要根据知识图谱的特点进行适当的调整或增强。这是因为知识图谱不仅仅是普通的图结构,它还包含了丰富的语义信息和复杂的关系模式。以下是GE方法应用于KG时的考虑因素及可能的调整:

(1)直接应用
  1. 节点嵌入:**对于只关注实体之间连接模式的任务,可以直接使用标准的GE方法,**如DeepWalk、node2vec等,来获取节点(即实体)的嵌入表示。这些方法通过随机游走生成节点序列,并利用Skip-gram模型学习节点向量。

    只关注实体之间连接模式的任务:
    1. 社区检测(Community Detection)
    描述:识别网络中的紧密联系群体或社区。
    特点:不关心具体的节点或边类型,只需要知道哪些节点相互连接。通过分析节点之间的连接模式,可以发现具有相似特性的节点群组。
    2. 节点分类(Node Classification)
    描述:预测未知标签节点的类别。
    特点:假设同一类别的节点倾向于与相同类别的其他节点相连。因此,即使不了解具体的节点属性或边类型,也可以基于连接模式来进行分类。
    3. 链接预测(Link Prediction)
    描述:预测两个节点之间是否存在未观察到的链接。
    特点:重点在于根据现有连接模式推断潜在的关系。例如,在社交网络中预测好友关系,或者在蛋白质交互网络中预测新的交互对。
    4. 异常检测(Anomaly Detection)
    描述:识别网络中不符合正常连接模式的节点或边。
    特点:不需要了解具体的节点或边类型,只需识别出那些偏离常规连接模式的元素。例如,在网络安全领域,检测异常的流量模式或恶意活动。
    5. 推荐系统(Recommendation Systems)
    描述:为用户推荐他们可能感兴趣的物品。
    特点:利用用户和物品之间的交互历史(如购买、评分),而不需要深入了解用户或物品的具体属性。通过分析用户-物品网络中的连接模式,可以找到相似用户的偏好,并据此进行个性化推荐。
    6. 影响力传播(Influence Propagation)
    描述:研究信息或行为在网络中的传播路径。
    特点:关注节点之间的连接如何影响信息的流动。例如,在社交媒体平台上追踪某个话题或趋势是如何从一个用户传播到另一个用户的。
    7. 网络可视化(Network Visualization)
    描述:将复杂网络以直观的方式呈现出来。
    特点:虽然最终的可视化可能包含一些语义信息,但其核心是根据节点间的连接模式来布局和展示网络结构。
    
  2. 图神经网络(GNNs):GNN及其变体(如GCNs、GATs)可以通过消息传递机制捕捉局部邻域的信息,适用于知识图谱中的实体分类、链接预测等任务。然而,标准的GNN通常不考虑边的类型(只适合处理同质图),这在KG中是至关重要的。

    Q:标准的GNN通常不考虑边的类型,可用于进行KGE吗,若可用,和KGE方法相比有什么优缺点?
    
    (1)标准GNN用于KGE的可能性
    节点特征学习:即使不考虑边的类型,标准GNN仍然能够有效地从节点的邻域结构中学习到有用的特征表示。对于某些简单或同质的知识图谱,这种能力可能已经足够。
    消息传递机制:GNN中的消息传递机制可以捕捉局部邻域的信息,这对于实体分类、链接预测等任务是有益的。通过多层传播,它还可以处理多跳关系。
    
    (2)优点
    灵活性:GNN架构相对灵活,易于扩展以适应不同类型的任务需求。例如,可以通过添加额外的层或改变激活函数来改进模型性能。
    泛化能力:由于GNN是基于图结构的学习框架,因此它具有良好的泛化能力,能够在不同类型的图数据上表现良好。
    统一框架:使用GNN可以提供一个统一的学习框架,适用于多种图相关的任务,包括但不限于KGE。这意味着可以更容易地共享代码和模型组件,提高开发效率。
    
    (3)缺点
    忽视关系多样性:标准GNN未能区分不同的边类型,这对需要精细建模复杂语义关系的知识图谱来说是一个重大限制。KG中不同类型的边往往携带了丰富的语义信息,忽略这些信息可能导致嵌入质量下降。
    难以处理复杂模式:如前所述,KG中的关系可能是复杂的,包括组合关系或多跳关系。标准GNN可能无法充分捕捉这些高级模式,特别是在没有特别针对KG优化的情况下。
    计算资源消耗:虽然GNN可以在理论上处理任意大小的图,但在实际应用中,特别是面对大型KG时,可能会面临计算资源的挑战,比如内存占用大、训练时间长等问题。
    
    (4)和KGE方法相比
    优势:
    通用性:GNN作为更通用的工具,不仅可以处理KG,还可以轻松迁移至其他类型的图数据任务。
    可扩展性:随着新研究的发展,GNN不断引入新的改进(如R-GCN, GAT等),使其逐渐具备了处理KG的能力,同时保持了原有的灵活性和泛化能力。
    劣势:
    针对性不足:相比于专门为KG设计的方法(如TransE, DistMult, ComplEx等),未经优化的标准GNN在处理KG时可能不如后者精准,尤其是在保留语义信息方面。
    复杂关系处理能力弱:KGE方法通常会特别考虑KG中常见的对称性、反身性、传递性等复杂关系模式,而标准GNN在这方面可能表现较弱。
    
    

注:GNN的本质其实是表示学习,而不是常规的embedding,这个后面单开一篇文章进行总结

(2)针对KG的调整与增强
  1. 关系感知
    • 在KG中,不同的边代表不同类型的关系,因此需要采用能够区分边类型的嵌入方法。例如,R-GCN(Relational Graph Convolutional Networks)允许为每种关系类型定义特定的权重矩阵,从而更好地建模多关系数据。
  2. 复合关系
    • KG中的关系可能是复杂的,包括组合关系或多跳关系。为了捕捉这些特性,可以引入路径推理或者基于注意力机制的方法,如TransE、DistMult等KGE模型,它们专门为KG设计,能够有效处理这种复杂性。
  3. 语义丰富度
    • 知识图谱中的实体和关系往往附带文本描述或其他形式的元数据。结合这些额外信息可以增强嵌入的质量。例如,可以将预训练的语言模型(如BERT)生成的文本表示融合到节点或边的特征中。
  4. 异构信息网络(HIN)
    • 如果KG包含多种类型的节点和边,则可以视为一个异构信息网络。针对这种情况,可以使用专门设计的HIN嵌入方法,如MetaPath2Vec、HERec等,来同时考虑不同类型的节点和边。
  5. 负采样策略
    • 在KG中,正样本(已知的事实)通常是稀疏的,而负样本(未知或错误的事实)几乎是无限的。因此,有效的负采样策略对于训练过程至关重要。一些KGE方法提出了特别适合KG的负采样技术,以提高模型性能。

KGE和GE的局限性(2024.12.29新增)

知识图谱嵌入(Knowledge Graph Embedding, KGE)和图嵌入(Graph Embedding, GE)虽然在处理结构化数据方面非常有效,但它们也各自存在一些局限性:

知识图谱嵌入(KGE)的局限性
  1. 关系类型有限:大多数KGE方法假设所有关系都是二元的(即一个主体和一个客体之间的关系),这限制了它们处理更复杂的关系类型的能力,如n元关系或多对多关系。

  2. 静态假设:许多KGE模型是基于静态图构建的,这意味着它们不擅长处理随时间变化的知识图谱。对于动态更新的图谱,这些模型需要重新训练或采用增量学习策略。

  3. 稀疏性问题:知识图谱通常是非常稀疏的,即大部分可能的实体-关系对并不存在于图中。这种稀疏性可能导致模型难以泛化到未见过的实体或关系上。

  4. 复杂度与计算成本:随着图谱规模的增长,训练和推理的计算复杂度也会显著增加,这对硬件资源提出了更高要求。

  5. 难以捕捉高阶模式:一些简单的KGE模型可能无法很好地捕捉到复杂的高阶模式或者路径依赖性,尽管有些改进模型如RotatE尝试解决这个问题。

图嵌入(GE)的局限性
  1. 结构信息损失:某些GE方法,特别是那些基于随机游走的方法,在将节点映射到低维空间时可能会丢失部分原始图中的结构信息。

  2. 超参数敏感:GE模型往往包含多个超参数,例如步长、窗口大小等,这些参数的选择对最终结果有很大影响,选择不当可能导致性能不佳。

  3. 难以处理异质信息网络:当涉及到具有不同类型节点和边的异质信息网络时,标准GE方法可能表现不佳,因为它们通常假定图是同质的。

  4. 缺乏语义理解:与KGE不同,GE主要关注保持图的拓扑结构而非节点间的关系语义,因此在涉及具体领域知识的任务中可能不如KGE有效。

  5. 冷启动问题:对于新加入的节点或很少连接的节点,现有的GE技术可能很难生成有效的嵌入表示,因为这些节点缺少足够的上下文信息来训练模型。

尽管KGE和GE都有各自的优点,但它们同样面临挑战。针对上述局限性,研究人员正在探索新的算法和技术,以提高模型的表现力、效率以及适应性。例如,结合深度学习的进展,出现了各种增强版的图神经网络(GNNs),它们能够在一定程度上缓解这些问题。

3.难点

  1. 稀疏性和不完全性:现实世界中的知识图谱往往是不完整的,许多事实并未被记录,这使得模型难以准确地学习实体之间的关系。

  2. 复杂的关系模式:知识图谱中存在各种复杂的关系模式,例如对称性、反身性、传递性等,这些都增加了学习的难度。

    1. 对称性(Symmetry)
    定义:如果关系R是A到B的关系,那么它也是B到A的关系。
    例子:
    友谊关系:“张三是李四的朋友”意味着“李四是张三的朋友”。
    地理位置相邻:“北京与天津相邻”意味着“天津与北京相邻”。
    2. 反身性(Reflexivity)
    定义:每个实体都与自己有某种特定关系。
    例子:
    等价关系:“任何物体都等于自身”,即对于所有x,x = x。
    某些属性关系:“每个人都是自己的父母的孩子”。
    3. 传递性(Transitivity)
    定义:如果A与B之间存在关系R,并且B与C之间也存在相同的关系R,则A与C之间也应该存在关系R。
    例子:
    继承关系:“如果A是B的父亲,而B是C的父亲,那么A是C的祖父”。
    数学中的大小比较:“如果a > b且b > c,那么a > c”。
    4. 反对称性(Anti-symmetry)
    定义:如果A与B之间存在关系R,那么除非A和B是同一个实体,否则B与A之间不应该存在相同的关系R。
    例子:
    父子关系:“如果A是B的父亲,那么B不可能是A的父亲”。
    5. 非对称性(Asymmetry)
    定义:如果A与B之间存在关系R,则B与A之间一定不存在相同的关系R。
    例子:
    杀害关系:“如果A杀害了B,那么B不能同时杀害A”。
    6. 函数性(Functional)
    定义:一个实体只能有一个目标实体与之相关联。
    例子:
    生日关系:“一个人只有一个生日”。
    7. 逆函数性(Inverse Functional)
    定义:一个目标实体只能有一个源实体与之关联。
    例子:
    社会安全号码(SSN):“一个有效的社会安全号码只属于一个人”。
    8. 多对多关系(Many-to-Many)
    定义:多个实体可以同时与多个其他实体有关联。
    例子:
    演员与电影:“一名演员可以出演多部电影,一部电影也可以有多名演员参与”。
    
  3. 计算资源需求:对于大型的知识图谱,训练嵌入模型需要大量的计算资源,包括内存和处理时间。

  4. 冷启动问题:当有新的实体或关系加入时,可能需要重新训练整个模型以获得良好的嵌入效果。

4.方法

1. 翻译距离模型:

  • 优点:
    简单直观:通过将关系视为从头实体到尾实体的一种“翻译”,这种模型非常容易理解和实现。
    高效训练:由于其简单的数学形式,这些模型通常训练速度较快,并且对大规模数据集有较好的扩展性。
    良好的链接预测性能:特别是在处理对称性和反身性等基本关系模式时表现出色。

  • 缺点:
    难以处理复杂关系:对于更复杂的语义模式,如传递性或多跳推理、多对多和一对多,表现可能不佳。
    限制性的假设:例如,TransE假定所有三元组都位于同一低维空间中,这可能会导致某些情况下无法准确表示现实世界的关系。

  • 典型模型:

    • TransE: 将头实体与尾实体之间的关系视为一种翻译操作,并最小化正确三元组的得分。

    • TransH, TransR, TransD: 分别引入了超平面、关系特定矩阵以及动态转换来改进TransE的表现。

2. 语义匹配模型:

  • 优点:
    捕捉语义信息:能够更好地建模实体之间的语义相似度,适用于需要理解实体间深层次关联的任务。
    支持多种关系模式:如RESCAL可以捕捉二阶关系,DistMult和ComplEx则擅长处理对称/反对称关系以及复数域内的旋转操作。

  • 缺点:
    计算复杂度较高:相比于翻译距离模型,语义匹配模型往往涉及更多的参数和更复杂的运算,可能导致训练时间增加。
    过拟合风险:由于模型结构较为复杂,如果数据量不足或正则化不当,容易出现过拟合现象。

  • 典型模型:

    • RESCAL: 使用张量分解的方法来捕捉二阶关系。

    • DistMult, ComplEx: 基于双线性形式的模型,能够处理对称/反对称关系;ComplEx进一步扩展到复数域以增强表达能力。

3. 神经网络模型:

  • 优点:
    强大的表达能力:利用深度学习的强大功能,这类模型可以自动提取特征并适应不同类型的任务需求。
    灵活性:可以通过引入卷积层(如ConvE)、注意力机制(如R-GCN中的Attention机制)等组件来增强模型的表现力。
    端到端学习:允许直接从原始输入到输出进行优化,减少了手工设计特征的需求。

  • 缺点:
    更高的资源需求:训练过程通常需要更多的计算资源,包括GPU加速器和较大的内存容量。
    解释性较差:相比于基于规则的方法,神经网络模型内部的工作机制相对不透明,难以解释模型决策背后的原因。

  • 典型模型:

    • R-GCN (Relational Graph Convolutional Networks): 通过考虑节点间不同类型的边来进行消息传递,适合处理多关系数据。

    • ConvE: 利用卷积神经网络(CNNs)从实体和关系的嵌入中提取特征。

4. 混合模型:

  • 优点:
    结合优势:通过融合不同类型的KGE方法,可以在一定程度上克服单一模型的局限性,获得更好的综合性能。
    定制性强:可以根据具体任务需求调整各个组成部分的比例或配置,以达到最优效果。

  • 缺点:
    复杂度增加:随着模型复杂度的提高,不仅增加了开发难度,也可能带来额外的调试和维护成本。
    调参挑战:需要仔细平衡各个部分之间的权重和参数设置,以确保整体性能最优。

  • 结合上述两种或多种思想设计的模型,如RotatE,它在复数空间内模拟旋转操作,从而可以表示更复杂的语义关系。

小结
每种类型的KGE模型都有其独特的应用场景和技术特点。选择合适的模型取决于具体的任务需求、可用的数据规模以及计算资源等因素。例如,对于大型KG上的快速链接预测任务,翻译距离模型可能是首选;而对于需要深入理解语义关系的任务,则应考虑语义匹配模型或神经网络模型。混合模型则为那些希望在多个方面取得平衡的应用提供了灵活的选择。

5.工具(2025.1.3更新)

SOTA

基于链接预测任务训练KGE,未开源的不记录

时间:2025.1.3

项目FB15K-237-MRRWN18RR-MRRFB15K-237排名WN18RR排名简介git地址star
TransE(基准)
RotateE(基准)0.33844
NBFNet0.4150.55117,开源第5NeurlPS2021,基于GCN
C-LMKE0.619>606,开源第42022,基于bert-base
KERMIT0.3590.7242,开源第12024,基于LLM
SimKGC0.671474,开源第2ACL2022
LERP0.62>605,开源第32023
MetaSD0.3910.491221EMNLP2022

综合来看,NBFNet最强!

更多开源项目最新收集

时间:2024.12.30

项目支持的模型git地址star
RotateERotatE
pRotatE
TransE
ComplEx
DistMult
https://github.com/DeepGraphLearning/KnowledgeGraphEmbedding1.3K
Knowledge Graph EmbeddingsRESCAL [Nickel+. 2011]
TransE [Bordes+. 2013]
DistMult [Yang+. 2015]
HolE [Nicklel+. 2016]
This model is equivalent to ComplEx[Hayashi and Shimbo. 2018], and the computation cost of ComplEx is lower than of HolE.
ComplEx [Trouillon+. 2016]
ANALOGY [Liu+. 2017]
This model can be regarded as a hybrid between DistMult and ComplEx.
https://github.com/mana-ysh/knowledge-graph-embeddings?tab=readme-ov-file257
KB2ETransE/H/R、CTransR、PTransE、clusterhttps://github.com/thunlp/KB2E1.4K
libkgeKGE models All models can be used with or without reciprocal relations RESCAL (code, config) TransE (code, config) TransH (code, config) DistMult (code, config) ComplEx (code, config) ConvE (code, config) RelationalTucker3/TuckER (code, config) CP (code, config) SimplE (code, config) RotatE (code, config) Transformer (“No context” model) (code, config)https://github.com/uma-pi1/kge790
scikit-kgeHoIE,其它不明https://github.com/mnick/scikit-kge473
ConvEconve
distmult
complex
https://github.com/TimDettmers/ConvE674
Pykg2vec见图1https://github.com/Sujit-O/pykg2vec611
KGEmbComplex [1]
Complex-N3 [2]
RotatE (without self-adversarial sampling) [3]
CTDecomp [2]
TransE [4]
MurE [5]
RotE [6]
RefE [6]
AttE [6]
RotH [6]
RefH [6]
AttH [6]
https://github.com/HazyResearch/KGEmb250
PyKeen(有更新)支持40种模型,见表1https://github.com/pykeen/pykeen1.7K
holographic-embeddingsHolographic Embeddings (HolE)
RESCAL
TransE
TransR
ER-MLP
https://github.com/mnick/holographic-embeddings172
Knowledge-Grapth-EmbeddingTransE [1], TransH [2], TransR [3], TransD [4]https://github.com/Lapis-Hong/TransE-Knowledge-Graph-Embedding79
dge-ke(亚马逊,2020)见图2https://github.com/awslabs/dgl-ke1.3K
PairRE(蚂蚁,2020)https://github.com/ant-research/KnowledgeGraphEmbeddingsViaPairedRelationVectors_PairRE77
MultiKE(2019)https://github.com/nju-websoft/MultiKE115
entity2rec(2020)https://github.com/D2KLab/entity2rec184
HittER(微软,2021)HittER(基于异构Transformers)https://github.com/microsoft/HittER79
DisenKGAT(2021)https://github.com/junkangwu/DisenKGAT55
InteractE(2020)https://github.com/malllabiisc/InteractE89
AmpliGraphTransE, DistMult, ComplEx, HolE (More to come!)https://github.com/Accenture/AmpliGraph2.2K
HAKE(2020)https://github.com/MIRALab-USTC/KGE-HAKE251
KBGAN(2018)https://github.com/cai-lw/KBGAN212
R-MeN(2020)
CogKGE(2022)见表2https://github.com/jinzhuoran/CogKGE54
QuatRE(2022)https://github.com/jinzhuoran/CogKGE37
CAGE(2020)https://github.com/Heng-xiu/CAGE8
DKRL(2016)https://github.com/xrb92/DKRL232

我推荐:pykeen(模型多)、cogKGE(支持Transformer的模型)、PyKG2vec(模型也多)

图1: PyKG2Vec支持的模型

在这里插入图片描述

图2:dge-ke支持的模型

在这里插入图片描述

表1:Pykeen支持的模型

NameModelCitation
AutoSFpykeen.models.AutoSFZhang et al., 2020
BoxEpykeen.models.BoxEAbboud et al., 2020
Canonical Tensor Decompositionpykeen.models.CPLacroix et al., 2018
CompGCNpykeen.models.CompGCNVashishth et al., 2020
ComplExpykeen.models.ComplExTrouillon et al., 2016
ComplEx Literalpykeen.models.ComplExLiteralKristiadi et al., 2018
ConvEpykeen.models.ConvEDettmers et al., 2018
ConvKBpykeen.models.ConvKBNguyen et al., 2018
CooccurrenceFilteredpykeen.models.CooccurrenceFilteredModelBerrendorf et al., 2022
CrossEpykeen.models.CrossEZhang et al., 2019
DistMApykeen.models.DistMAShi et al., 2019
DistMultpykeen.models.DistMultYang et al., 2014
DistMult Literalpykeen.models.DistMultLiteralKristiadi et al., 2018
DistMult Literal (Gated)pykeen.models.DistMultLiteralGatedKristiadi et al., 2018
ER-MLPpykeen.models.ERMLPDong et al., 2014
ER-MLP (E)pykeen.models.ERMLPESharifzadeh et al., 2019
Fixed Modelpykeen.models.FixedModelBerrendorf et al., 2021
HolEpykeen.models.HolENickel et al., 2016
InductiveNodePiecepykeen.models.InductiveNodePieceGalkin et al., 2021
InductiveNodePieceGNNpykeen.models.InductiveNodePieceGNNGalkin et al., 2021
KG2Epykeen.models.KG2EHe et al., 2015
MuREpykeen.models.MuREBalažević et al., 2019
NTNpykeen.models.NTNSocher et al., 2013
NodePiecepykeen.models.NodePieceGalkin et al., 2021
PairREpykeen.models.PairREChao et al., 2020
ProjEpykeen.models.ProjEShi et al., 2017
QuatEpykeen.models.QuatEZhang et al., 2019
R-GCNpykeen.models.RGCNSchlichtkrull et al., 2018
RESCALpykeen.models.RESCALNickel et al., 2011
RotatEpykeen.models.RotatESun et al., 2019
SimplEpykeen.models.SimplEKazemi et al., 2018
Structured Embeddingpykeen.models.SEBordes et al., 2011
TorusEpykeen.models.TorusEEbisu et al., 2018
TransDpykeen.models.TransDJi et al., 2015
TransEpykeen.models.TransEBordes et al., 2013
TransFpykeen.models.TransFFeng et al., 2016
TransHpykeen.models.TransHWang et al., 2014
TransRpykeen.models.TransRLin et al., 2015
TuckERpykeen.models.TuckERBalažević et al., 2019
Unstructured Modelpykeen.models.UMBordes et al., 2014

表2:cogKGE支持的模型

Translation Distance Models

CategoryModelConferencePaper
TransENIPS 2013Translating embeddings for modeling multi-relational data翻译模型
TransHAAAI 2014Knowledge Graph Embedding by Translating on Hyperplanes
TransRAAAI 2015Learning Entity and Relation Embeddings for Knowledge Graph Completion
TransDACL 2015Knowledge Graph Embedding via Dynamic Mapping Matrix
TransAAAAI 2015TransA: An Adaptive Approach for Knowledge Graph Embedding
BoxENIPS 2020BoxE: A Box Embedding Model for Knowledge Base Completion
PairREACL 2021PairRE: Knowledge Graph Embeddings via Paired Relation Vectorss
RESCALICML 2011A Three-Way Model for Collective Learning on Multi-Relational Data语义匹配模型
DistMultICLR 2015Embedding Entities and Relations for Learning and Inference in Knowledge Bases
SimplENIPS 2018SimplE Embedding for Link Prediction in Knowledge Graphs
TuckERACL 2019TuckER: Tensor Factorization for Knowledge Graph Completion
RotatEICLR 2019RotatE: Knowledge Graph Embedding by Relational Rotation in Complex Space
R-GCNESWC 2018Modeling Relational Data with Graph Convolutional Networks基于GNN的模型
CompGCNICLR 2020Composition-based Multi-Relational Graph Convolutional Networks
HittEREMNLP 2021HittER: Hierarchical Transformers for Knowledge Graph Embeddings基于transformer的模型
KEPLERTACL 2021KEPLER: A Unified Model for Knowledge Embedding and Pre-trained Language Representation

附录1:KGE算法怎么选?(待补充)

参考1
参考2
参考3
推荐:

附录2:嵌入维度的选取

NLP和network embedding中一般选取50、100或200.
更多可参考:https://www.zhihu.com/answer/179181973
https://www.zhihu.com/answer/2707612555

附录3:应用分析

实体相似度任务选KGE、GE,还是GNN,为什么?

先让大模型发言:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
我的建议:
**基于你需要什么类型的实体相似度出发,**展开来说:
1)若是你希望通过语义相似度来做某个任务(如语义上相似的实体检索、推荐),那么毫无疑问,你要考虑使用KGE(其为语义而生,任意两个实体都可以计算语义距离,GE对于这种没有直接连接的节点相似度不适合);
2)如果你希望基于节点之间的一些局部连通相似性来做任务(比如像社区检测这种),那么GE是很适合的。
3)什么时候考虑GNN呢?同时需要考虑连通关系和节点信息时,听起来似乎有点复杂也有点抽象,后面在GNN总结再补充。

附录4:Paperwithcod最新榜单

时间:2025.1.6

Link Prediction on WN18RR

请添加图片描述

RankModelHits@10Hits@3Hits@1MRRMRPaperCodeResultYearTags
1MoCoKGC0.8810.7920.6650.742MoCoKGC: Momentum Contrast Entity Encoding for Knowledge Graph Completion2024
2KERMIT0.8320.7380.6290.700KERMIT: Knowledge Graph Completion of Enhanced Relation Modeling with Inverse Transformation2024
3MoCoSA0.820.7370.6240.696MoCoSA: Momentum Contrast for Knowledge Graph Completion with Structure-Augmented Pre-trained Language Models2023
4SimKGCIB (+PB+SN)0.8170.7310.5880.671SimKGC: Simple Contrastive Knowledge Graph Completion with Pre-trained Language Models2022
5C-LMKE (bert-base)0.7890.6710.5230.61979Language Models as Knowledge Embeddings2022
6LASS0.78635Joint Language Semantic and Structure Embedding for Knowledge Graph Completion2022
7LP-BERT0.7520.5630.3430.48292Multi-task Pre-training Language Model for Semantic Network Completion2022
8KGLM0.7410.5380.3300.46740.18KGLM: Integrating Knowledge Graph Structure in Language Models for Link Prediction2022
9StAR (Self-Adp)0.7090.4910.2430.40151Structure-Augmented Text Representation Learning for Efficient Knowledge Graph Completion2021
10PALT0.69361PALT: Parameter-Lite Transfer of Language Models for Knowledge Graph Completion2022
11LERP0.6820.6340.5930.622Logical Entity Representation in Knowledge-Graphs for Differentiable Rule Learning2023
12NBFNet0.6660.5730.4970.551636Neural Bellman-Ford Networks: A General Graph Neural Network Framework for Link Prediction2021
13MLMLM0.6110.54180.43910.50171603MLMLM: Link Prediction with Mean Likelihood Masked Language Model2020
14GAAT0.6040.5250.4240.4671270Knowledge Graph Embedding via Graph Attenuated Attention Networks2019
15Relphormer0.5910.4480.495Relphormer: Relational Graph Transformer for Knowledge Graph Representations2022
16M3GM0.59020.45370.4983Predicting Semantic Relations using Global Graph Properties2018
17RotH0.5860.5140.449.496Low-Dimensional Hyperbolic Knowledge Graph Embeddings2020
18DRUM (T=3)0.5860.5130.4250.486DRUM: End-To-End Differentiable Rule Mining On Knowledge Graphs2019
19QuatDE0.5860.5090.4380.4891977QuatDE: Dynamic Quaternion Embedding for Knowledge Graph Completion2021
20HittER0.5840.5160.4620.503HittER: Hierarchical Transformers for Knowledge Graph Embeddings2020
21GC-OTE0.5830.5110.4420.4912715Orthogonal Relation Transforms with Graph Context Modeling for Knowledge Graph Embedding2019
22HAKE0.5820.5160.4520.497Learning Hierarchy-Aware Knowledge Graph Embeddings for Link Prediction2019
23QuatE0.5820.5080.4380.4882314Quaternion Knowledge Graph Embeddings2019
24KBGAT0.5810.4830.3610.441940.0Learning Attention-based Embeddings for Relation Prediction in Knowledge Graphs2019
25ConE0.5790.5150.4530.496Modeling Heterogeneous Hierarchies with Relation-specific Hyperbolic Cones2021
26DensE0.5790.5080.4430.4913052DensE: An Enhanced Non-commutative Representation for Knowledge Graph Embedding with Adaptive Semantic Hierarchy2020
27LineaRE0.5780.5090.4530.4951644LineaRE: Simple but Powerful Knowledge Graph Embedding for Link Prediction2020
28ComplEx-N3-RP0.5780.5050.4430.488Relation Prediction as an Auxiliary Training Objective for Improving Multi-Relational Graph Representations2021
29SAFRAN (white box, rule based)0.5780.4590.502SAFRAN: An interpretable, rule-based link prediction method outperforming embedding models2021
30MEIM0.5770.5180.4580.499MEIM: Multi-partition Embedding Interaction Beyond Block Term Format for Efficient and Expressive Link Prediction2022
31Rot-Pro0.5770.4820.3970.457Rot-Pro: Modeling Transitivity by Projection in Knowledge Graph Embedding2021
32RESCAL-DURA0.5770.4550.498Duality-Induced Regularizer for Tensor Factorization Based Knowledge Graph Completion2020
33GFA-NN0.5750.4863390Embedding Knowledge Graphs Attentive to Positional and Centrality Qualities2021
34SE-GNN (ours)0.5720.5090.4460.4843211How Does Knowledge Graph Embedding Extrapolate to Unseen Data: A Semantic Evidence View2021
35RotatE0.5710.4920.4280.4763340RotatE: Knowledge Graph Embedding by Relational Rotation in Complex Space2019
36MetaSD0.5700.5040.4470.491Self-Distillation with Meta Learning for Knowledge Graph Completion2022
37ComplEx-N3 (reciprocal)0.570.48Canonical Tensor Decomposition for Knowledge Base Completion2018
38KGRefiner0.570.448683KGRefiner: Knowledge Graph Refinement for Improving Accuracy of Translational Link Prediction Methods2021
39AutoSF0.5670.490AutoSF: Searching Scoring Functions for Knowledge Graph Embedding2019
40MuRP0.5660.4950.4400.481Multi-relational Poincaré Graph Embeddings2019
41CoPER-ConvE.5612.4405.4833Contextual Parameter Generation for Knowledge Graph Link Prediction2020
42MDE_adv0.5600.4583219MDE: Multiple Distance Embeddings for Link Prediction in Knowledge Graphs2019
43CapsE0.560.415719.0A Capsule Network-based Embedding Model for Knowledge Graph Completion and Search Personalization2018
44SAttLE0.5580.5080.4540.491Self-attention Presents Low-dimensional Knowledge Graph Embeddings for Link Prediction2022
45NePTuNe0.5570.5070.4550.491NePTuNe: Neural Powered Tucker Network for Knowledge Graph Completion2021
46DihEdral0.5570.5050.4520.486Relation Embedding with Dihedral Group in Knowledge Graph2019
47TransE0.55550.42260.4659Translating Embeddings for Modeling Multi-relational Data2013
48ComplEx (SCE w/ LS pretrained)0.5530.4960.4440.481Unified Interpretation of Softmax Cross-Entropy and Negative Sampling: With Case Study for Knowledge Graph Embedding2021
49pRotatE0.5520.4790.4170.4622923RotatE: Knowledge Graph Embedding by Relational Rotation in Complex Space2019
50CP-DURA0.5520.4410.478Duality-Induced Regularizer for Tensor Factorization Based Knowledge Graph Completion2020
51MEI0.5510.4960.4440.481Multi-Partition Embedding Interaction with Block Term Format for Knowledge Graph Completion2020
52ProbCBR0.550.490.430.48Probabilistic Case-based Reasoning for Open-World Knowledge Graph Completion2020
53CompGCN0.5460.4940.4430.4793533Composition-based Multi-Relational Graph Convolutional Networks2019GCN
54ComplEx (SCE w/ LS)0.5460.4910.4410.477Unified Interpretation of Softmax Cross-Entropy and Negative Sampling: With Case Study for Knowledge Graph Embedding2021
55Structure-Aware Convolutional Networks0.540.480.430.47End-to-end Structure-Aware Convolutional Networks for Knowledge Base Completion2018
56ConvR0.5370.4890.4430.475Adaptive Convolution for Multi-Relational Learning2019
57GenKGC0.5350.4030.287From Discrimination to Generation: Knowledge Graph Completion with Generative Transformer2022
58InteractE0.5280.4300.4635202InteractE: Improving Convolution-based Knowledge Graph Embeddings by Increasing Feature Interactions2019
59TuckER0.5260.4820.4430.470TuckER: Tensor Factorization for Knowledge Graph Completion2019
60ConvKB0.5250.2482554.0A Novel Embedding Model for Knowledge Base Completion Based on Convolutional Neural Network2017
61KG-BERT0.52497KG-BERT: BERT for Knowledge Graph Completion2019
62HypER0.5220.4770.4360.4655796Hypernetwork Knowledge Graph Embeddings2018
63ConvE0.5200.4400.4000.430Convolutional 2D Knowledge Graph Embeddings2017
64RESCAL + Decom0.5150.4690.4270.457Decompressing Knowledge Graph Representations for Link Prediction2019
65ComplEx0.5100.4100.440Complex Embeddings for Simple Link Prediction2016
66ComplEx NSCaching0.50890.44635365NSCaching: Simple and Efficient Negative Sampling for Knowledge Graph Embedding2018
67RotatE + GreenKGC (Ours)0.4910.430.411GreenKGC: A Lightweight Knowledge Graph Completion Method2022
68KBGAN (TransD + ComplEx)0.4690.215KBGAN: Adversarial Learning for Knowledge Graph Embeddings2017
69TransE + GreenKGC (Ours)0.4130.3650.30.342GreenKGC: A Lightweight Knowledge Graph Completion Method2022
70Inverse Model0.350.350.350.3513526Convolutional 2D Knowledge Graph Embeddings2017
71M-Walk0.4450.4140.437M-Walk: Learning to Walk over Graphs using Monte Carlo Tree Search2018
72ComplEx-DURA0.4490.491Duality-Induced Regularizer for Tensor Factorization Based Knowledge Graph Completion2020
73DisMult0.390.43Embedding Entities and Relations for Learning and Inference in Knowledge Bases2014
74DistMult (after variational EM)0.455Augmenting and Tuning Knowledge Graph Embeddings2019
Link Prediction on FB15k-237

请添加图片描述

RankModelHits@1Hits@3Hits@10MRRMRtraining time (s)Hit@1Hit@10Extra Training DataPaperCodeResultYearTags
1NBFNet0.3210.4540.5990.415114Neural Bellman-Ford Networks: A General Graph Neural Network Framework for Link Prediction2021
2MoCoKGC0.2960.4310.5800.391MoCoKGC: Momentum Contrast Entity Encoding for Knowledge Graph Completion2024
3MoCoSA0.2920.420.5780.387MoCoSA: Momentum Contrast for Knowledge Graph Completion with Structure-Augmented Pre-trained Language Models2023
4MetaSD0.3000.4280.5710.391Self-Distillation with Meta Learning for Knowledge Graph Completion2022
5ComplEx-N3-RP0.2980.4240.5680.389163Relation Prediction as an Auxiliary Training Objective for Improving Multi-Relational Graph Representations2021
6QuatDE0.2680.400.5630.36590QuatDE: Dynamic Quaternion Embedding for Knowledge Graph Completion2021
7StAR0.2660.4040.5620.365117Structure-Augmented Text Representation Learning for Efficient Knowledge Graph Completion2021
8ComplEx-DURA0.2760.5600.371Duality-Induced Regularizer for Tensor Factorization Based Knowledge Graph Completion2020
9MEIM0.2740.4060.5570.369MEIM: Multi-partition Embedding Interaction Beyond Block Term Format for Efficient and Expressive Link Prediction2022
10AutoKGE0.5550.365AutoSF: Searching Scoring Functions for Knowledge Graph Embedding2019
11MEI0.2710.4020.5520.365Multi-Partition Embedding Interaction with Block Term Format for Knowledge Graph Completion2020
12kNN-KGE0.2800.4040.5500.370185Reasoning Through Memorization: Nearest Neighbor Knowledge Graph Embeddings2022
13RESCAL (SCE w/ LS pretrained)0.2690.4020.550.364Unified Interpretation of Softmax Cross-Entropy and Negative Sampling: With Case Study for Knowledge Graph Embedding2021
14GC-OTE0.2670.3960.5500.361154Orthogonal Relation Transforms with Graph Context Modeling for Knowledge Graph Embedding2019
15QuatE0.2480.3820.5500.34887Quaternion Knowledge Graph Embeddings2019
16CP-N3-RP0.550.366Relation Prediction as an Auxiliary Training Objective for Improving Multi-Relational Graph Representations2021
17SE-GNN (ours)0.2710.3990.5490.365157How Does Knowledge Graph Embedding Extrapolate to Unseen Data: A Semantic Evidence View2021
18RESCAL (SCE w/ LS)0.2690.40.5480.363Unified Interpretation of Softmax Cross-Entropy and Negative Sampling: With Case Study for Knowledge Graph Embedding2021
19DistMult (after variational EM)0.5480.357Augmenting and Tuning Knowledge Graph Embeddings2019
20NePTuNe0.2720.4040.5470.366NePTuNe: Neural Powered Tucker Network for Knowledge Graph Completion2021
21KERMIT0.2660.3960.5470.359KERMIT: Knowledge Graph Completion of Enhanced Relation Modeling with Inverse Transformation2024
22SAttLE0.2680.3960.5450.36Self-attention Presents Low-dimensional Knowledge Graph Embeddings for Link Prediction2022
23LineaRE0.2640.3910.5450.357155LineaRE: Simple but Powerful Knowledge Graph Embedding for Link Prediction2020
24TuckER0.2660.3940.5440.358TuckER: Tensor Factorization for Knowledge Graph Completion2019
25RefE0.2560.3900.5410.351Low-Dimensional Hyperbolic Knowledge Graph Embeddings2020
26Structure-Aware Convolutional Networks0.260.390.540.35End-to-end Structure-Aware Convolutional Networks for Knowledge Base Completion2018
27ConE0.2470.3810.540.345Modeling Heterogeneous Hierarchies with Relation-specific Hyperbolic Cones2021
28Rot-Pro0.2460.3830.5400.344Rot-Pro: Modeling Transitivity by Projection in Knowledge Graph Embedding2021
29KG-R30.539A Retrieve-and-Read Framework for Knowledge Graph Link Prediction2022
30BoxE0.2380.5380.337BoxE: A Box Embedding Model for Knowledge Base Completion2020
31SAFRAN0.2980.5370.389SAFRAN: An interpretable, rule-based link prediction method outperforming embedding models2021
32RESCAL + Decom0.2610.3880.5360.354Decompressing Knowledge Graph Representations for Link Prediction2019
33CompGCN0.2640.3900.5350.355197Composition-based Multi-Relational Graph Convolutional Networks2019GCN
34TuckER-RP0.2640.3880.5350.354Relation Prediction as an Auxiliary Training Objective for Improving Multi-Relational Graph Representations2021
35InteractE0.2630.5350.354172InteractE: Improving Convolution-based Knowledge Graph Embeddings by Increasing Feature Interactions2019
36DensE0.2560.3840.5350.349169DensE: An Enhanced Non-commutative Representation for Knowledge Graph Embedding with Adaptive Semantic Hierarchy2020
37RotatE0.2410.3750.5330.338177RotatE: Knowledge Graph Embedding by Relational Rotation in Complex Space2019
38LASS0.533108Joint Language Semantic and Structure Embedding for Knowledge Graph Completion2022
39MDE_adv0.5310.344203MDE: Multiple Distance Embeddings for Link Prediction in Knowledge Graphs2019
40ConvR0.2610.3850.5280.350Adaptive Convolution for Multi-Relational Learning2019
41pRotatE0.230.3650.5240.328178RotatE: Knowledge Graph Embedding by Relational Rotation in Complex Space2019
42GFA-NN0.5220.338186Embedding Knowledge Graphs Attentive to Positional and Centrality Qualities2021
43MuRP0.2450.3700.5210.336Multi-relational Poincaré Graph Embeddings2019
44HypER0.2520.3760.5200.341Hypernetwork Knowledge Graph Embeddings2018
45DRUM (T=3)0.2550.3780.5160.343DRUM: End-To-End Differentiable Rule Mining On Knowledge Graphs2019
46SimKGCIB (+PB+SN)0.2490.3650.5110.336SimKGC: Simple Contrastive Knowledge Graph Completion with Pre-trained Language Models2022
47RotatE0.2170.3470.5110.314176857GraphVite: A High-Performance CPU-GPU Hybrid System for Node Embedding2019
48RotatE + GreenKGC (Ours)0.2650.3690.5070.345GreenKGC: A Lightweight Knowledge Graph Completion Method2022
49ConvE0.2370.3560.5010.325Convolutional 2D Knowledge Graph Embeddings2017
50TransE + GreenKGC (Ours)0.2510.3560.4930.331GreenKGC: A Lightweight Knowledge Graph Completion Method2022
51LP-BERT0.2230.3360.4900.31154Multi-task Pre-training Language Model for Semantic Network Completion2022
52KGRefiner0.4890.3022031100KGRefiner: Knowledge Graph Refinement for Improving Accuracy of Translational Link Prediction Methods2021
53Relphormer0.3140.4810.371Relphormer: Relational Graph Transformer for Knowledge Graph Representations2022
54ComplEx NSCaching0.48050.3021221NSCaching: Simple and Efficient Negative Sampling for Knowledge Graph Embedding2018
55JoBi ComplEx0.1990.3190.4790.29Using Pairwise Occurrence Information to Improve Knowledge Graph Completion on Large-Scale Datasets2019
56LogicENN0.473424LogicENN: A Neural Based Knowledge Graphs Embedding Model with Logical Rules2019
57TransE0.1987.47090.2904Translating Embeddings for Modeling Multi-relational Data2013
58KGLM0.2000.3140.468.289125.9KGLM: Integrating Knowledge Graph Structure in Language Models for Link Prediction2022
59TransD0.14830.46050.2527Knowledge Graph Embedding via Dynamic Mapping Matrix2015
60KBGAN (TransD + ComplEx)0.4580.277KBGAN: Adversarial Learning for Knowledge Graph Embeddings2017
61PALT0.444144PALT: Parameter-Lite Transfer of Language Models for Knowledge Graph Completion2022
62GenKGC0.1920.3550.439From Discrimination to Generation: Knowledge Graph Completion with Generative Transformer2022
63ComplEx0.428Complex Embeddings for Simple Link Prediction2016
64ConvKB (Corrected).421.309309A Re-evaluation of Knowledge Graph Completion Methods2019
65KG-BERT0.42153KG-BERT: BERT for Knowledge Graph Completion2019
66DistMult0.4190.241Embedding Entities and Relations for Learning and Inference in Knowledge Bases2014
67RR-GCN-PPV0.1570.2560.4120.238R-GCN: The R Could Stand for Random2022
68MLMLM0.18710.28200.40260.2591411MLMLM: Link Prediction with Mean Likelihood Masked Language Model2020
69KBAT (Corrected).331.157270A Re-evaluation of Knowledge Graph Completion Methods2019
70CapsE (Corrected).057.032446A Re-evaluation of Knowledge Graph Completion Methods2019
71Inverse Model0.0070.0110.0140.0107030Convolutional 2D Knowledge Graph Embeddings2017
<think>好的,我需要回答用户关于知识图谱语言模型结合应用或实现方式的问题。首先,我需要结合用户提供的引用资料,整理出相关的示例实现方法。用户提到了四个引用,其中引用[1]提到融合应用在搜索引擎、推荐系统、智能问答语义分析等场景。引用[2][3]则涉及企业级实现模型工程实践。引用[4]强调模型的参数量优势。 首先,我应该从应用场景入手,列举几个具体的结合示例,比如智能问答增强、动态推荐系统、企业知识管理搜索增强。每个示例需要说明如何结合知识图谱LLM,可能的结构是:场景描述、结合方式、技术优势、引用对应的文献。例如,在智能问答中,知识图谱提供结构化数据,LLM处理自然语言,提升准确性,引用[1][3]。 接下来是技术实现方式,需要分步骤说明,如知识抽取与对齐、联合训练、提示工程、混合推理等。引用[2]提到企业级实现,可以在这里引用。例如,知识抽取部分可以提到使用LLM从文本中提取实体关系,再构建知识图谱,引用[2][3]。 然后,需要举出实际案例,如医疗领域、金融风控、教育智能体,具体说明应用方式效果,引用相关的文献,比如引用[1]中的搜索引擎推荐系统案例。 最后,生成相关问题,确保问题覆盖技术挑战、评估方法、企业落地难点、多模态结合等。注意使用中文,保持结构清晰,段落分明,正确使用引用标注,确保每个引用在相应位置被提及。同时,检查LaTeX格式是否正确,但用户的问题中没有数学表达式,所以可能不需要使用。但如果有提到模型参数等,如引用[4]中的参数量,可以用行内公式表示,例如$10^{10}$参数。 需要避免使用Markdown格式,保持自然的中文叙述。确保每个部分逻辑连贯,引用标注自然嵌入在句尾。最后,确认所有引用都正确对应,没有遗漏或错误。</think>知识图谱语言模型的结合应用及实现方式可以从以下几个角度分析: --- ### 一、核心应用场景与示例 1. **智能问答增强** - **场景**:通过知识图谱提供结构化知识,结合语言模型(LLM)的生成能力,回答复杂问题。 - **实现**:LLM解析用户问题后,调用知识图谱检索实体关系,生成逻辑严谨的回答。例如,医疗问答中,LLM结合疾病-症状知识图谱,生成诊断建议[^1]。 - **优势**:减少LLM的“幻觉”,提升回答准确性[^4]。 2. **动态推荐系统** - **场景**:电商或内容平台中,知识图谱描述用户-商品-内容的关系,LLM生成个性化推荐理由。 - **实现**:基于知识图谱的路径推理(如“用户A购买过商品B→同类商品C”),LLM生成自然语言解释[^2]。 3. **企业知识管理** - **场景**:企业内部文档通过知识图谱结构化,LLM辅助员工快速检索信息。 - **示例**:使用LLM解析员工查询,从知识图谱中提取流程、制度等实体,生成操作指南[^3]。 --- ### 二、技术实现方式 1. **知识抽取与对齐** - LLM从非结构化文本(如文档、对话)中提取实体关系,构建或补充知识图谱[^2]。 - 技术示例: ```python # 使用LLM抽取实体关系 prompt = "从文本中提取实体及关系:'苹果公司由史蒂夫·乔布斯创立于1976年。'" response = llm.generate(prompt) # 输出:{"head":"苹果公司", "relation":"创始人", "tail":"史蒂夫·乔布斯"} ``` 2. **联合训练与微调** - 将知识图谱嵌入(如TransE、GraphSAGE)与LLM的文本表示联合训练,增强模型对结构化知识的理解[^4]。 3. **提示工程(Prompt Engineering)** - 在LLM的输入中嵌入知识图谱查询结果,例如: ``` 问题:量子计算的主要应用领域是? 知识图谱检索结果:[量子计算]-[应用领域]->[密码学、药物研发] LLM生成答案:量子计算可应用于密码学药物研发等领域。 ``` 4. **混合推理框架** - LLM处理自然语言逻辑,知识图谱提供事实约束,例如在司法案例推理中,LLM生成法律观点,知识图谱验证法条引用是否准确[^1]。 --- ### 三、实际案例 1. **医疗领域** - **应用**:将疾病、药品、治疗方案构建为知识图谱,LLM根据患者症状生成初步诊断并推荐检查项目。 - **工具**:开源框架如DeepKE用于知识抽取,Streamlit构建交互界面[^2]。 2. **金融风控** - **实现**:知识图谱描述企业股权关系,LLM分析财报文本,识别潜在风险(如关联交易)。 --- ### 四、挑战与未来方向 - **挑战**:知识图谱的动态更新、LLM与图谱的实时交互效率、多模态知识融合(如图像、表格)。 - **趋势**:轻量化知识图谱嵌入、基于LLM的自动化图谱构建。 ---
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值