知识图谱
知识图谱
饮冰l
这个作者很懒,什么都没留下…
展开
-
论文笔记:AAAI 2020 Learning Hierarchy-Aware Knowledge Graph Embeddings for Link Prediction
1. 前言论文链接:https://arxiv.org/pdf/1911.09419.pdfgithub:https://github.com/MIRALab-USTC/KGE-HAKEHAKE 将实体映射到极坐标系中。 HAKE 受到这样一个事实的启发:极坐标系中的同心圆可以自然地反映层次结构。 具体来说,径向坐标旨在对层次结构不同级别上的实体进行建模,半径较小的实体应该位于较高的级别; 角坐标旨在区分层次结构相同级别的实体,并且这些实体的半径大致相同,但角度不同。 实验表明,HAKE可以有效地对知原创 2020-11-04 21:09:46 · 2165 阅读 · 4 评论 -
论文笔记:AAAI 2020 InteractE: Improving Convolution-based Knowledge Graph Embeddings by Increasing
1. 前言论文链接:https://arxiv.org/pdf/1911.00219.pdfgithub:https://github.com/malllabiisc/InteractE现有的大多数知识图都存在不完整的问题,可以通过基于已知事实推断缺失的链接来缓解这种情况。一种实现此目的的流行方法是生成实体和关系的低维嵌入,并使用它们进行推断。 ConvE 是最近提出的一种基于卷积神经网络的知识图谱嵌入方法,它在实体和关系嵌入的2D重塑上应用卷积过滤器,以捕获其组件之间的丰富交互。但是,ConvE 可原创 2020-11-04 20:30:29 · 2958 阅读 · 0 评论 -
论文笔记:AAAI 2018 Convolutional 2D Knowledge Graph Embeddings
1. 前言论文链接:https://aaai.org/ocs/index.php/AAAI/AAAI18/paper/viewPDFInterstitial/17366/15884github:https://github.com/TimDettmers/ConvE知识图的链接预测是预测实体之间缺失关系的任务。先前有关链接预测的工作集中在浅,快速的模型上,这些模型可以缩放到大型知识图例如基于基于平移变换的 TransE 系列。但是,这些模型比深层次的多层模型学习的表达功能要少,这可能会限制性能。本文中原创 2020-11-03 20:57:30 · 1096 阅读 · 0 评论 -
论文笔记:ACL 2019 Learning Attention-based Embeddings for Relation Prediction in Knowledge Graphs
1. 前言论文链接:https://arxiv.org/pdf/1906.01195.pdfgithub:https://github.com/deepakn97/relationPrediction知识图谱(KGs)的激增加上不完整或部分信息,以实体之间的缺失关系(链接)的形式,激起了许多关于知识完成(也称为关系预测)的研究。最近的一些工作表明,基于卷积神经网络(CNN)的模型会生成更丰富和更具表达力的特征嵌入并且因此在关系预测上也表现出色。但是,但是这些KG嵌入方法独立地处理三元组,因此无法覆盖固原创 2020-11-03 16:53:41 · 2861 阅读 · 1 评论 -
论文笔记:ICLR 2019 RotatE Knowledge Graph Embedding by Relational Rotation in Complex Space
1. 前言论文链接:https://openreview.net/forum?id=HkgEQnRqYQgithub:https://github.com/DeepGraphLearning/KnowledgeGraphEmbedding本文研究在知识图谱中学习实体和关系表示的问题,以预测缺少的链接。 此类任务的成功在很大程度上取决于建模和推断关系(或关系之间)模式的能力。 在本文中,提出了一种新的知识图谱嵌入方法称为 RotatE,它能够建模和推断各种关系模式,包括:对称/反对称,反演和组成。 具原创 2020-11-03 14:37:25 · 5433 阅读 · 3 评论 -
知识图谱嵌入经典方法(Trans系列、KG2E)
1. 知识图谱嵌入相关内容部分来自:https://zhuanlan.zhihu.com/p/1475420082.1 知识表示的一些背景知识通常,我们使用三元组(head, relation, tail)来表示知识。在这里,头和尾是实体。例如,(sky tree, location, Tokyo)。我们可以用独热向量来表示这个知识。但实体和关系太多,维度太大。当两个实体或关系很近时,独热向量无法捕捉相似度。受Wrod2Vec模型的启发,我们想用分布表示来表示实体和关系。1.1.1 下游任务的应用原创 2020-11-01 11:05:38 · 7175 阅读 · 0 评论