基于昇思MindSpore实现知识图谱增强多模态类比推理

论文标题

Multimodal Analogical Reasoning over Knowledge Graphs

论文来源

ICLR 2023

论文链接

https://openreview.net/forum?id=NRHajbzg8y0P

代码链接

https://github.com/mindspore-lab/models/tree/master/research/ZJU/mkg_analogy

昇思MindSpore作为开源的AI框架,为产学研和开发人员带来端边云全场景协同、极简开发、极致性能、安全可信的体验,支持国内高校/科研机构发表1000+篇AI顶会论文。本文是昇思MindSpore AI顶会论文系列第40篇,我选择了来自浙江大学计算机科学与技术学院的张宁豫老师团队发表于ICLR的一篇论文解读,感谢各位专家教授同学的投稿,更多精彩的论文精读文章和开源代码实现请访问Models。

image.png

01 研究背景

类比推理是一种感知和利用两种情况或事件之间的关系相似性的能力,在人类认知中占有重要地位,并且在众多领域例如教育、创造发挥着重要作用。一些学者考虑将类比推理与人工智能进行结合,在计算机视觉和自然语言处理领域都进行了广泛应用。其中,CV领域将视觉与关系、结构和类比推理相结合,测试模型对于基本图形的的理解和推理能力;NLP领域通过词语的线性类比来验证模型的文本类比推理能力。上述任务大多遵循(a,b):(c,d)的形式对深度学习模型的类比推理能力作了初步分析,但都仅限于单模态,没有考虑神经网络是否有能力从不同模态中捕获类比信息。然而,Mayer认知理论指出,人类通常在多模态资源中能表现出更好的类比推理能力,那人工智能模型是否具有这种性质呢?

这篇论文提出了一个基于知识图谱的多模态类比推理任务,任务形式可以形式化为

image.png

 。本文构建了一个多模态类比推理数据集MARS和一个多模态知识图谱数据集MarKG作为支撑。为了评估多模态类比推理过程,本文基于心理学理论的指导,对多模态知识图谱嵌入基线和多模态预训练Transformer基线在MARS上进行了综合实验。本文进一步提出了一个新型多模态类比推理框架MarT,它可以随时插入任何多模态预训练的Transformer模型中,并能产生更好的类比推理性能。

02 团队介绍

张宁豫,浙江大学副教授,浙江大学启真优秀青年学者,在高水平国际学术期刊和会议上发表多篇论文,代表工作有KnowPrompt、DeepKE、EasyEdit、OceanGPT(沧渊)等,获浙江省科技进步二等奖,IJCKG最佳论文/提名2次,CCKS最佳论文奖1次, 担任ACL、EMNLP领域主席、ARR Action Editor、IJCAI 高级程序委员。

cke_3401.png

3.2 多模态预训练模型

本文将每个实体和关系视为特殊token添加到预训练模型的词表中,并使用可学习的向量来进行表示。受之前的研究启发,本文设计了类似于掩码语言建模的掩码实体和关系建模任务来学习这些向量,使其包含实体和关系的信息。如图4(b)所示,首先在MarKG数据集上预训练多模态Transformer模型。MarKG数据集中包含了实体的文本描述信息、图片信息以及实体之间的关系信息,这里期望模型可以从这些多源信息中学习到实体和关系的表示。为此,本文设计了一个提示模板,以完形填空的形式让模型预测 [MASK] 对应的实体或关系。此外,本文还为模型提供了实体的不同模态信息,包括文本描述和图片等。

在预训练结束后,采用带有显示结构映射的提示学习类比推理技术,来将预训练Transformer模型应用到下游数据集MARS上。如图4(c)所示,输入分为两部分,||左边的部分对应于Pipeline方式中Abduction的步骤,||右边的部分对应于Induction步骤,而Mapping步骤在模型内部完成。

image.png

cke_6598.png

3.3 MarT框架

image.png

MarT框架

尽管上述方法可以使得预训练Transformer模型可以建模多模态类比推理任务,但只是浅层的考虑了Abduction和Induction步骤,忽略了类比示例与类比问题-答案对之间的细粒度关联。因此,本文进一步提出了用于Transformer模型的MarT框架,它包含了自适应类比交互和面向关系的结构映射等两个模块。

3.4 自适应类比交互

之前通过设计类比提示模板讲类比示例与类比问题-答案对拼接送入的Transformer模型,在Attention计算时两部分会进行一定程度交互。然而,类比示例对于类比答案的预测至关重要,但反过来类比问题-答案对对于类比示例的建模可能帮助甚微。此外,不同样例中类比示例提供的帮助不同。因此,本文使用自适应关联门来调节Attention计算中两部分的交互程度,将Attention计算拆解过程进行了拆解:

cke_11552.png

04 实验结果

如下表所示,MKGE的方法和MPT的方法在MARS数据集上取得了可比的性能;在模型中加入类比模块后,性能都有了大幅的提升,具体表现为MKGE方法使用ANALOGY作为Backbone时Hit指标和MRR指标都有了明显提升,MPT方法加入了MarT框架后提升也十分显著;MarT_MKGformer表现出了最优越的性能,原因可能是MKGformer是针对多模态知识图谱任务设计的,对此类任务更为敏感。本文提供了一个排行榜https://zjunlp.github.io/project/MKG_Analogy/   。

image.png

05 总结与展望

在人类智能中,类比是一个很基本的能力,在某种程度上,可以认为是人类智能的源头之一。人们通过将一个概念或情境与另一个相似的概念或情境进行比较,来理解和解决问题。这种方法可以帮助人们通过熟悉的概念来理解抽象的概念,并使用自己在这些概念中获得的经验来解决问题。本文提出了基于知识图谱的多模态类比推理任务,对此任务进行了形式化的定义并提供了一个多模态类比推理数据集MARS和多模态知识图谱数据集MarKG。在多个知识图谱嵌入模型和预训练Transformer模型上的实验表明了这个任务的困难性和可挖掘性。

随着人工智能和深度学习技术的不断发展,昇思MindSpore作为一个高效、灵活且强大的框架,展现出广阔的应用前景。昇思MindSpore框架具有以下几个显著优势:高效的计算加速:与硬件深度整合,充分利用计算资源,显著提高了模型训练速度。自动混合精度:在训练过程中自动选择适当的数值精度,降低内存使用,提高计算效率。展望未来,昇思MindSpore生态系统有望不断扩展,涵盖更多行业应用。

  • 16
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值