中国团队夺冠,刷新了知识图谱竞赛的世界纪录

近日,素有知识图谱「世界杯」之称的OGBL-wikikg2的比赛结果公布了。

度小满AI-Lab团队强势夺冠,碾压Meta AI实验室FAIR、蒙特利尔Mila实验室等一众国内外顶级AI科研机构,创造了KGE算法新纪录。

地址:ogb.stanford.edu/docs/l

OGB是斯坦福大学发布的国际知识图谱基准数据集,也是图神经网络领域最权威、最具挑战性的「竞技场」,每年都有众多顶级研究机构和企业前来参赛。

TranS强势刷榜,KGE开启新时代

在这场「高手云集」的国际竞赛中,度小满数据智能部AI-Lab团队提出创新性知识图嵌入(KGE)模型TranS,刷新了OGBL-Wikikg2基准数据集最高记录。

该团队表示wikikg2图数据规模巨大,训练迭代时间长,在分数优化空间已接近极限的情况下,他们仅使用V100-16G显存的GPU就打败了其他使用A100-40G的团队。

论文链接:arxiv.org/abs/2204.0840

在现有成果基础上,度小满提出全新KGE模型,有效地解决了复杂实体关系表示中的瓶颈问题,开启了知识图谱表示学习的新时代。

KGE采用嵌入式思想,通过将实体和关系转化为连续向量的方法,从根本上解决了知识图谱三元组的符号特性难以被操作和使用的问题,是当下最有潜力的研究方向之一。

250万实体,1700万个事实三元组

度小满夺冠榜单为难度颇高的OGBL-wikikg2,该榜单数据来源于Wikidata知识库,涵盖现实世界约250万个实体之间的500多种不同关系,构成了1700多万个事实三元组。

三元组也就是知识图谱结构中的头实体、关系和尾实体,用来表示图结构中实体(节点)与关系(边)的一种事实性符号。参赛团队需要在海量且复杂的事实三元组中精准预测未知实体间的潜在关系,并挖掘出正确的新三元组。

知识图嵌入(KGE)是学习知识图中关系和实体的向量表示方法。现有的KGE方法取得了良好性能,但使用单一关系向量进行学习——将头实体转换为尾实体的方法无法处理较为复杂的关系。

右下角为度小满最新提出的TranS模型

今年年初,度小满AI团队系统性梳理了现有的图表示学习方法,在数据处理和算法优化等方面进行了数以千次的实验后,他们提出了两实体间多样化的关系合成模式,形成了现在的TranS模型。

新模型TranS突破了基于翻译的知识表示学习中传统分数模式,通过实体节点间关系向量的合成与推理提升复杂场景下知识图谱建模的能力,有效地解决了这些问题。

同时,在同一实体对的不同关系表示上,远超TransE、InterHT、TripleRE、TransH、PairRE等现有方法。

中国团队夺冠,刷新了知识图谱竞赛的世界纪录, (qq.com)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AI知识图谱大本营

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值