NodePiece

目录

一、summary

二、method

anchor selection

node tokenization

anchor distance

relation context

三、experiment

transductive link predition+ablation

 inductive link predition

 node classification

总结


一、summary

        为解决大型KG上训练的计算负担,本文提出了一种模型压缩方法NodePiece,该方法基于固定尺寸大小的“锚点”,对每个顶点由其相邻的k个锚点及距离以及m个相邻的关系学习嵌入。企图利用较少的子实体对大型KG进行表示,并增强模型的泛化性。

二、method

        对知识图谱\small G=(N,E,R),NodePiece定义为\small a\in A,A\subset N,Nodepiece vocabulary定义为\small V=A+R,为保证可达性及出入度平衡\small R=R_{direct}+R_{inverse},每个节点的hash由相邻的k个锚点及距离以及m个相邻的关系表示,\small hash(n)=[a_i,z_{a_i},r_j],,再由编码函数\small enc:R^{(k+m)*d}\rightarrow R^d嵌入到向量空间中。

anchor selection

        实验发现随机选择与基于确定性的规则选择效果差不多。

node tokenization

        提出两种方法确定k个锚点,1.随机策略,均匀从\small \left ( |A|,k \right )可能组合选取,\small |A|和k由节点总数定义的可能组合的下界来选择,2.确定性策略,使用BFS直接对n的邻居进行检索并排序。对于孤立点,将其与标记为DISCONNECTED的锚点相连,或者是直接将其设为锚点,对大多KG影响忽略不计。

anchor distance

        利用原图中锚点与目标点的最短距离(整数),后将其映射为d维向量.

relation context

        随机采样m个相连的关系,少于m个则用[pad]补全.

encoding:

使用MLP和Transformer解码器实现编码函数,其中MLP的速度更快,能够更好地缩放具有更多边缘的图,transformer参数更少。

三、experiment

transductive link predition+ablation

 

其中FB15k-237比WN18RR的关系更为稠密,在消融实验中获得了不同的效果,且消融分析表明,增加锚的总数和每个实体的锚数量可以将性能提高到饱和点。

在大规模KG中,NodePiece获得了更好的结果。

 inductive link predition

 node classification


总结

nodepiece能够有效地减少了知识图谱表示的参数,且在大规模,关系稠密的知识图谱中能够得到更好的结果。

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值