HittER-用于知识图谱嵌入的层次化Transformer

HittER是一种深度学习模型,通过双层Transformer结构处理复杂知识图谱中的实体和关系表示。底层Transformer负责实体-关系特征提取,上层Transformer则整合上下文信息。文章还介绍了掩码实体预测任务(MEP),以平衡源实体和上下文信息的学习。
摘要由CSDN通过智能技术生成

Sanxing Chen;Xiaodong Liu, Jianfeng Gao;Jian Jiao, Ruofei Zhang;Yangfeng Ji;2020

HittER——该模型旨在解决复杂多关系知识图谱中实体和关系表示学习的挑战性问题。作者提出了一种双层Transformer结构,用于联合学习源实体邻域中的实体-关系组合与基于上下文的关系表达。

  1. 模型组成

    HittER模型包含两个层级的Transformer模块。
    • 底层Transformer模块:针对源实体周围的局部邻域,提取每个实体-关系对的特征。
    • 上层Transformer模块(也称为上下文Transformer):接收底层Transformer模块输出的关系信息,并聚合这些信息,生成源实体的上下文感知表示。
  2. 层级运作机制

    • 底层Transformer用于提取每一对实体和关系的具体特征。
    • 上层Transformer基于底层提取出的关系特征,将源实体邻域内的关系信息融合起来,形成一个整体的理解。
  3. 掩码实体预测任务

    • 为了平衡关系上下文信息和源实体本身的信息,设计了一个两步的掩码实体预测任务(MEP),在训练期间引入了对源实体的随机遮蔽,使其能够同时考虑上下文和实体本身的贡献。

Code:https://github.com/microsoft/HittER

  • 10
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值