ACM MM 2021 | MEGA:基于高效图对齐机制的多模态关系抽取

f8e42aed5b77dcf0e2a756301bf3b83d.gif

©作者 | 郑昌萌

单位 | 香港理工大学

来源 | 社媒派SMP

2de729a48c0b3381fa33492faf7467d5.png


引言

关系抽取任务(RE)旨在识别给定一句话中两个实体的语义关系,是构建知识图谱的基本步骤,同时也在许多需要关系理解的下游任务中扮演着重要角色。现有的关系抽取模型主要依赖文本特征,在缺乏文本上下文的社交媒体中预测性能急剧下降。例如,在句子“JFK and Obama at Harvard”中,仅仅依赖句子表示,传统的模型无法将 JFK 和 Obama 的关系识别为校友(Alumni)。然而,依赖社交媒体中与文本相关的图片 post,我们能够发现在图中的两人身穿相同的学士服,从而对校友关系进行准确的预测。受此启发,我们提出了多模态关系抽取任务,旨在利用社交媒体中与文本相关的图片辅助模型更准确的识别句子中实体之间的关系。 

不同于以往的多模态任务,我们发现利用视觉信息辅助模型进行关系抽取不仅需要捕捉视觉对象和文本实体之间的相关性,更需要利用图片中不同视觉对象之间的关系来辅助理解文本中不同实体之间的关系。例如,在图 1 中,仅仅依靠文本我们无法推断“Ang Lee”和“Oscar”之间存在获奖“Awarded”的关系,但是我们可以通过图片中人(man)和奖杯(trophy)之间存在握着(holding)的视觉关系,辅助模型正确的识别出获奖这一文本关系。

8f583af3083a77a3b78a0130bc6a4870.png

▲ 图1. 在Twitter中的多模态关系抽取案例

因此,为了学习视觉关系到文本关系的映射,我们提出了基于高效图对齐机制的多模态神经网络模型 MEGA,利用视觉场景图与文本依存图结构之间的结构对齐与语义对齐,寻找抽取文本关系最相关的视觉关系,从而提升关系抽取在社交媒体文本上的性能。为了验证模型的有效性,我们建立了基于 Twitter 数据的多模态关系抽取数据集 MNRE,在该数据集上的实验结果表明,MEGA 模型能够利用视觉信息补充缺失的文本语义,同时利用对齐的视觉与文本关系提升关系抽取的性能。

d764b72110055932231ab0ce7c453060.png

论文标题:

Multimodal Relation Extraction with Efficient Graph Alignment

论文作者:

郑昌萌(香港理工大学)、冯焌豪(华南理工大学)、傅泽(华南理工大学)、蔡毅(华南理工大学)、李青(香港理工大学)、王涛(伦敦国王学院)

收录会议:

ACM MM 2021

论文链接:

https://dl.acm.org/doi/pdf/10.1145/3474085.3476968

代码链接:

https://github.com/thecharm/Mega

fa7eb2fb55ebf343699a5d8ba01c3433.png


基于高效图对齐的多模态关系抽取

在本节中,我们将具体介绍提出的基于高效图对齐的多模态关系抽取模型 MEGA,其中包括文本与视觉的语义特征表示,关系图的结构特征表示,多模态特征对齐以及实体表示拼接。


2.1 MEGA框架

07282ae957bdc69eabea6101ffdcc4ae.png

▲ 图2. MEGA模型的整体框架

MEGA 模型的整体框架如图 2 所示。该模型可以概括为以下步骤:

1. 首先,我们使用预训练的 BERT 编码器表示提取文本语义。此外,我们从提供丰富视觉信息的图像中生成场景图,包括视觉对象特征和对象之间的视觉关系。为了表示图像的语义,我们将提取的场景图中的对象特征视为视觉语义特征;

2. 其次,为了获得结构表示,我们提取输入文本的句法依赖树,该树对文本信息的句法结构进行建模。场景图提取的视觉对象关系可以构建为结构图表示;

3. 第三,为了充分利用图像信息进行多模态关系提取,我们分别对齐多模态特征的结构和语义信息,以捕捉多模态信息之间的多视角相关性。然后,我们有效地合并两个对齐的结果;

4. 最后,我们将表示两个实体的文本表示和对齐的视觉表示连接起来,作为文本和图像的融合特征来预测实体的关系。

2.2 语义特征表示 

我们采用预训练 BERT 进行文本语义的编码,并且在社交媒体的数据集上对预训练权重进行微调,从而获取每个 token 的 embedding 表示。和过去的命名实体识别模型一致,我们将字符级和词级别的文本表示进行拼接,旨在获取更多的形态学特征。我们采用 Faster RCNN 模型进行视觉对象语义的编码,在这里我们将对象级别的语义视为细粒度的视觉表示,其能够反映图像场景中的细节信息,能够更好的与文本实体对齐。 

2.3 结构特征表示 

在以前的一些工作中,句子的结构(即依赖树)可以提供重要的信息,这有利于提取两个实体之间的关系。受此启发,我们使用语法依赖树和场景图生成模型为输入文本和图像生成两个单向图,从而提供结构信息来辅助更好的对齐文本和视觉关系。值得注意的是,视觉对象特征在场景图中起着节点特征的作用。

d5b8e22bbd38872bde3bcea6eeb6ec45.png

▲ 图3. 基于语义依存解析的文本结构特征提取

具体来说,我们采用 Elmo 作为依赖树提取工具,用于获取输入文本的依存树,然后将文本中的每个单词通过依存关系连接并获得其相关的依存三元组。如图 3 所示,输入句子通过依存解析以获得单词之间的关系(例如,amod,cop)。蓝色的词表示依存关系。箭头的结尾表示这个词既是从属词也是修饰词。紫色用来表示哪个词是依赖关系的根节点。由于每个单词直接由文本中的另一个单词连接,因此文本的图表示生成为 ,它由单词之间的几个关系对组成。

我们通过场景图生成模型从输入图像中获得 个对象和它们之间的视觉关系。由于两个对象之间的每个关系都是单向的,类似于依赖树,因此每个对象节点也指向它的依存关系。因此,我们可以获得输入图像的图表示 。 由图像中检测到的几个对象关系对组成。

2.4 多模态特征对齐 

2.4.1 图结构对齐

图结构对齐的步骤可以总结为以下两步:(1)通过分解节点标识符的相似性矩阵获取节点表示 (2)通过有效的数据结构,利用贪婪算法匹配两个图之间节点的embedding 表示来完成对齐。

15cf4839de64a1a1b3da5dd4245cd817.png

▲ 图4. 多模态图结构对齐示意

具体来说,我们利用下述公式计算两个图节点之间的结构相似性:

d507cecc81e24ad3b80232fe125035fe.png

d 为节点标识向量,其计算方式为:

5eba0390ab8570040b3a8e1d8d76e71f.png

其中, 表示对于每一个节点 u,我们会计算一个基于 k 跳(k hop)的 D 维向量。D 为两个图 G1,G2 的最大度数(degree)。完成结构图对齐的计算后,我们将两个图(文本与视觉)进行结合,合并后的图相似性权重矩阵表示为 。

2.4.2 图语义对齐

3c5483f6620986204afe5419c60bb6e5.png

▲ 图5. 多模态图语义对齐示意

与结构相似性不同,我们还考虑引入文本和视觉对象在语义上的相似性,其流程示意图如图 5 所示。我们利用 guided attention 机制计算文本词与视觉对象之间的相关性:

6cd913620d1e89a552e09ef2c9771bdf.png

其中 为文本特征表示, 为视觉特征表示, 为文本与视觉特征纬度,为了计算方便,我们通过线性变换将二者的纬度统一。最终基于图语义对齐的相似性矩阵为 。

2.4.3 多模态特征融合

本文旨在通过同时考虑文本与视觉在语义和结构图上的对齐,寻找与文本实体关系最相关的视觉关系,因此,我们将语义与结构相似性特征矩阵融合,用以决定最相关的视觉节点,并导出基于多模态对齐后的视觉表示 :

4588c1be235d495ee6bafa21149682dd.png

2.5 实体表示拼接与关系预测

为了充分利用对齐后的视觉信息,我们将图片中的所有对齐后的视觉对象特征进行集成,并且与已知实体的语义表示(预先利用预训练 BERT 导出实体 embedding)进行拼接,最终用于预测关系类型。在这里,我们简单的采用 softmax 和 MLP 进行关系类型的预测。

843d6411d3a161baf42313aa4caf8291.png


实验

为了验证模型在多模态关系抽取数据集上的性能,我们首先提出了在社交媒体上的多模态关系抽取数据集 MNRE。该数据集语料来自于 Twitter 上爬取的 tweets,我们通过人工标注,最终获得了 15485 个多模态关系抽取实例,共 9201 个图片句子对,拥有 30970 个标注好的命名实体。该数据集与传统的关系抽取数据集 SemEval-2010 task 8 进行对比的结果如表 1 所示:

8e60748b5c10d106f5de464d4fb76aaa.png

▲ 表1. MNRE数据集与SemEval-2010数据集的对比结果

3.1 实验结果

我们将 MEGA 模型分别与卷积神经网络模型 Glove+CNN,远程监督关系抽取模型 PCNN,基于预训练语言模型 BERT 的 SOTA 模型 MTB 分别进行了对比。为了体现模型各模块的性能,我们与分别去除了图对齐机制的 BERT+SG 模型以及仅仅去除结构对齐的 BERT+SG+Att 模型也进行了实验对比,结果如表 2 所示:

42b12c5fa1d13fde4dd5e7ae27962fc4.png

▲ 表2. MEGA模型与其他关系抽取模型的对比结果

实验表明,MEGA 模型在 Precision,Recall 和 F1 指标上都超过了现有的 SOTA 模型,并且,通过 ablation study 我们发现本文所提出的结构对齐与语义对齐能够显著提升模型在关系抽取任务上的性能。

de23e3f750833b5b574381c168590e9c.png

▲ 表3. MEGA模型在数据集不同类别上与MTB模型的对比结果

我们同时进行了不同类别上的结果对比,如表 3 所示。通过类别对比结果我们可以看出,模型在某些更需要视觉对象进行补充的类别上的结果具有更加显著的提升,如 present_in 类别需要通过文本进行场景语义的识别,并与文本内容相结合,从而更加准确的识别实体间的关系。

3.2 案例分析

为了更直观的体现 MEGA 模型在多模态关系抽取任务上的有效性,我们提供了案例分析,其结果如图 6 所示:

586c000658cf97206ee5bef7fa80600b.png

▲ 图6. MEGA模型与基于纯文本的MTB模型以及没有采用图对齐机制的BERT+SG模型的案例对比分析

左半部分为 MEGA 模型与基于纯文本的 MTB 模型的对比结果,可以看出,我们提出的 MEGA 模型通过引入了与文本相关的视觉对象语义,在缺乏上下文的关系抽取中具有更加准确的预测性能。右半部分为 MEGA 模型与没有采用图对齐机制的 BERT+SG 模型的对比结果,我们给出了图片中所提取的视觉关系三元组。从图中可以看出,MEGA 模型通过高效的图结构与语义对齐,使得模型能够关注与文本关系相关的视觉关系,从而更准确的识别出文本关系类型。

2940a464d5be7b466fa6a0bbd46cc795.png


总结

在这项工作中,我们提出了多模态关系抽取任务,旨在利用视觉信息补充缺失的文本语义,从而帮助模型更准确的识别文本中实体的关系。同时,我们提出了具有高效语义与结构对齐的多模态关系抽取模型 MEGA 与人工标注的多模态关系抽取数据集 MNRE,实验结果表明模型能够通过考虑结构与语义图的对齐,利用视觉关系辅助文本关系的识别,从而提升模型在关系抽取上的预测性能。

81d3306671850eefd0316d45d1723ef6.png

送福利啦!

独家定制论文锦鲤卡套

限量 200 份 

能否抢到全凭手速

扫码回复「卡套」 

立即免费参与领取 

👇👇👇

3a08130adf8786d42f5484790f70e18a.png

更多阅读

c4cd6d342b50ee227144864d1c1bd694.png

f19d3caca1119987da5fcfb7c3b2d640.png

99cfcc19eff596fa81401cff35a1cb01.png

f68628c81d2ae0bbdafb341fedd12e62.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

4f850adb2fb2fb26f2dd7715a2a90d31.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

4f85418cd4a74e2c117c7374b7ab0f67.png

  • 2
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
ggplot.acm 是一个用于实现多重对应分析 (MCA) 的 ggplot2 扩展包。多重对应分析是一种多元数据分析方法,常用于研究因素间的关联和相互作用。 ggplot.acm 提供了一种在 R 语言环境中使用 ggplot2 语法进行 MCA 可视化分析的简单且灵活的工具。 ggplot.acm 提供了一些主要函数和方法,以帮助用户处理和分析多变量数据。用户可以利用这些函数对数据集进行预处理,如数据标准化、缺失值处理等。然后,用户可以使用 ggplot2 语法创建形,并通过 ggplot.acm 提供的特殊层函数将 MCA 分析结果添加到形中。 ggplot.acm 支持在形中展示多个变量之间的关系和交互作用。用户可以根据需要选择要显示的变量,并使用 ggplot2 的强大形功能自定义形样式。此外,ggplot.acm 还提供了一些额外的功能,如通过颜色、形状或尺寸来区分不同组别的变量,以及在中添加标签和注释等。 ggplot.acm 的设计目标是使 MCA 变得更加容易理解和应用。它提供了一个直观且易于使用的界面,让用户可以通过探索数据和可视化结果来了解变量之间的关系。同时,ggplot.acm 还具有高度可定制性,用户可以根据自己的需求和偏好进行个性化设置。 总而言之,ggplot.acm 是一个能够简化 MCA 分析并提供多样化可视化效果的工具。它使用户能够更轻松地使用 ggplot2 进行多重对应分析,并通过丰富的形功能更好地理解数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值