论文浅尝 | 基于对抗学习的弱监督知识图谱对齐

论文笔记整理:郭凌冰,浙江大学研究助理,研究方向为知识图谱的表示学习。


绝大部分现有的知识图谱对齐方法都要求足够的已对齐三元组作为监督数据,但在现实世界中,获取大量的对齐三元组的代价十分高昂。本文提出一种同时适用于全监督或者弱监督知识图谱对齐的方法,其通过一种基于对抗学习的框架(KAGAN)来对齐不同知识图谱中实体和关系的嵌入表示:

本文首先定义了由源知识图谱的实体(或关系)到目标知识图谱的实体(或关系)的概率:

其中为温度参数,

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
知识图谱transformer是一种基于图谱结构的编码器模型,用于学习和表示知识图谱中的关系。它采用了类似于普通transformer模型的框架,但在结构上有一些差异。通过引用可以看到,知识图谱transformer的框架图与普通transformer模型相似。然而,为了更好地利用图谱中的关系结构,解决了线性/层次约束的问题,作者提出了一种新的Graph Transformer编码器,如引用所述。这种编码器允许模型有效地利用图谱的结构信息,从而更好地学习和表示知识图谱中的关系。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [论文 | 利用图 Transformer 实现基于知识图谱的文本生成](https://blog.csdn.net/TgqDT3gGaMdkHasLZv/article/details/100190240)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *3* [基于生成式预训练Transformer的跨媒体内容生成及知识图谱构建](https://blog.csdn.net/universsky2015/article/details/131468154)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值