NAACL——2022会议在读

会议论文地址:(别人整理的,存在遗漏,而且,大家重点可能也不一样,就做参考吧)https://zhuanlan.zhihu.com/p/509026879

开胃菜

A Simple yet Effective Relation Information Guided Approach for Few-Shot Relation Extraction

整体感觉:

水(虽然是ACL findings)

论文核心:

现在有些研究在做关系分类任务时,会考虑到实体和关系描述信息对于任务的帮助,因此,会采取措施将这两类信息融入进来,但是怎么融入呢?之前的一些研究,比如对抗学习、层级网络等等,其实,是挺复杂的,所以,这篇文章是希望以一种简单直接的方式将关系信息融入进来。

论文为什么觉得他们的方法有效?

(1)直接引进关系信息相比于复杂方法,不会产生太多的噪声信息(2)直接引进的方式,参数大大减少。

论文方法

就是直接将训练数据中得到的关系的原型表示(相同关系类型下,句子表示的平均嵌入表示)和关系表示(view1:【CLS】,view2:关系描述的平均)做cat,得到一个2d的向量(d是针对bert的词嵌入维度)
在这里插入图片描述
吐槽下:这篇文章的ablation study,感觉不太全面,感觉全程在围绕“linear”在说
直接看论文就知道了。

重头戏

Sentence-Level Resampling for Named Entity Recognition

论文核心

这篇文章是针对怎么重构数据集展开的,数据集也就是语料对于整个训练过程或者模型表现也就具有较大的影响力的。这篇文章是根据频率做采样,不是阈值,所以,一个句子可能会被多次选择,比如,当fcs的频率是3时,这个句子会被采样3次。这直接导致了整个训练时长的增加。

背景(数据不平衡问题之前的解决方式)

数据不平衡:数据量少、长尾分布两点。
前人解决:

  1. focal loss(对类少的加大权值)——焦点损失(何凯明)
  2. dice loss (不清楚)
  3. 数据采样:对类少的部分做上采样、类多的做下采样来缓解数据不平衡的问题,但会导致训练数据减少
  4. 子句采样(我理解的大概意思是对一个句子采样,因为可能存在一个问题,就是,句子的实体会干扰句子分类,比如,当句子中有某两个实体时,分类器可能就直接把它归为一类,而不考虑语义等情况。但子句采样,可能会破坏语义信息的完整性)

论文解决方式

看这篇文章,文章解决的思路,感觉像是从信息检索领域出发的。
其实核心问题,就是:怎么选择句子?
文章中给出了四个指标:

  1. 实体tokens数量——这个因素反映了检索函数中的词频 236 (Salton and Buckley, 1988)-----一个句子中含有的实体数量
  2. 实体类型的罕见性——反映文档在检索领域的频繁性
  3. token被标记为一个实体的密度((number of entity tokens compared to the length of a sentence)——这 个因子反映了 检索函数中的文档长度标准化(Singhal 等,1996)
  4. 边际效用递减法则——当含有同种类型实体的token数量增多时,边际效用递减。

采样方法

根据这四个指标,提出了四种采样计算方式。

  1. sC(考虑实体数量)
  2. sCR(考虑实体数量和实体罕见性)
  3. sCRD (考虑实体数量、罕见性和密度)
  4. nsCRD (四个因素全部考虑)
    (在构建频率计算公式时,文章多采用的是二范式,给出的解释是,为了避免变化频率较快,因为根号_x相比于x的变化,确实慢一些)

评估

就是比较不同采样频率下的效果。

总结

值得看,是因为,影响因素开始作为量化指标,但影响因素不仅仅是文章中的四个,而且,怎么根据影响因素制定采样规则,也因任务而异,这是可以在思考的地方

懵状态

Should We Rely on Entity Mentions for Relation Extraction? Debiasing Relation Extraction with Counterfactual Analysis

论文核心

这篇文章,没太搞明白,是奔着标题来的。
实体关系可能会对关系分类任务泄露虚假的线索——出发点
我们提出了 CORE(基于反事实分析的关系提取)去偏方法,该方法指导 RE 模型关注文本上下文的主要影响,而不会丢失实体信息。

整体感觉,这篇文章有点意思,他考虑纠正学习得到的语义信息中的信息偏差,来实现更好的关系分类任务。
(基于反事实分析,我们可以分析 RE 中实体提及的副作用,并以实体感知的方式对模型进行去偏)

第一个问题:信息偏差有哪些?

这篇文章是从实体偏差和标签偏差两点展开的。
实体偏差——实体可能会对关系分类任务泄露虚假的线索
标签偏差——标签分布的不均衡(可以理解为部分label的出现概率先天性偏低)

第二个问题,怎么得到信息偏差?

其实,作者思路挺简单的。
第二个和第三个图是作者给出的图。
第二个,就是在解决实体偏差。
也就是,我只给实体信息,feed to the RC ,根据结果好坏,大致就知道实体偏差了——Y1
而label偏差,对应第三个图,啥都不给,RC去做分类吧,这样大致就知道Label 偏差了——Y2
接下来,就是要mitigate these bias,移除偏差,
Y_final=Y-lamda_1Y1-lamda_2Y2,就可以了,
而lamda取值,作者给出的方式是网格搜索(网格束搜索)grid beam search

评估指标:macro-F1
在这里插入图片描述
在这里插入图片描述
论文中也指出,

Some work argues that RE models may rely on the entity mentions to make relation predictions instead of the textual context (Zhang et al., 2018; Joshi et al., 2020). The empirical results in Fig. 3 validates this argument.

总结

总体来看,这篇文章也挺有意思的

多模态(图像+文本)

这篇文章思路感觉还好,考虑了目标检测。
图像部分考虑了三部分信息,见下图。(object tags/image caption/OCR text)
采用的是序列标注的方式,整个模型的loss是包括三部分,
一是直接text输入产生的label
二是text+image转换后的文本产生的label
三是text和image相关的文本的分布异同(KL散度)
在这里插入图片描述

EmRel: Joint Representation of Entities and Embedded Relations for Multi-triple Extraction

论文核心

多元组之间的交互和实体、关系之间的交互关系较为复杂
文章提出显示的将关系表示融入到模型中(我个人感觉,文章想法一般——目前感觉)

前人研究

现有作品大多采取实体视角,重点探索跨实体交互(Xu et al., 2021; Zeng et al., 2020)。

  1. 他们要么将关系视为最终分类器中指定的原子标签(Xu et al., 2021; Zeng et al., 2020; Wang etal., 2020)

  2. 要么简单地为每个单独的关系搜索主题和对象(Wei et al., 2020)。 , 2020;

下图,左图是实体角度,右图是联合抽取角度,可以发现不同在于关系有无。
在这里插入图片描述

文章做法

首先明确地将关系表示创建为嵌入向量;然后通过基于注意力的融合模块对丰富的关系实体-上下文交互进行建模,从而细化这些关系(以及实体)表示;最后通过对齐联合空间中实体和关系的表示来识别有效的三元组,并使用基于 Tucker 分解的新对齐函数。
模型图如下,可以看到的是三个注意力模块,每个模块都会产生大量的参数,
文章给出的是注意力模型由残差网络、前向网络和正则化三部分构成。

在这里插入图片描述
目标是判断给定的三元组是否为三元组,也就是计算《s,r,o》的分值。
为了充分利用它们的表现力,我们提出了使用 Tucker 分解的基于分解的对齐方式(Tucker et al., 1964)。我们引入一个核心张量 Z ∈ R de∗dr∗de ,每个 < si , rk, oj > 的有效性评分为:
在这里插入图片描述

总体感觉

参数引入量挺多的,模型建的也比较复杂,不过,最后的评价方式可以借鉴,之间面向三元组评价和最终的评价是直接挂钩的。

  • 2
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

YingJingh

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值