论文:An Empirical Study on Multiple Information Sources for Zero-Shot Fine-Grained Entity Typing

01论文核心

这篇文章是关于zero-shot背景下的细粒度NER问题,zero-shot的场景,论文中设定的是,train和test数据集的type无交集,train的type是高粒度的,而test的type是细粒度,是train的type的细粒度化。
文章做了什么?:研究了不同的信息的融合方法;研究了不同的信息对于该任务的作用效果;

不同信息是:上下文背景信息,实体类型层次结构,背景知识信息(wiki这种)

02 论文背景

Fine-grained entity typing (FET) aims to detect
the types of an entity mention given its context
外部信息引入:
在这里插入图片描述

03 论文模型

a Multi-Source Fusion model (MSF) 三模块:

  1. CA (Context-Consistency Aware) module, we measure the context consistency by large-scale pretrained language models, e.g., BERT
  2. HA (Type-Hierarchy Aware) module, we use Transformer encoder (Vaswani et al., 2017) to model the hierarchical dependency among types.
  3. KA (Background-Knowledge Aware) module, we introduce prototypes (Ma et al., 2016) and WordNet descriptions (Miller, 1995) as background knowledge of types

在这里插入图片描述

1 CA模块:

encode:bert
输入:text which mask the corrsponding entity mention
输出:the entity type of the masked position
补充:the number of [mask] tokens decides on the length of type names

损失函数:loss function = score function: the average probablity of the token n of type t:

在这里插入图片描述

2 HA模块:

  1. mention and contexts:在训练阶段,encoder编码,concat作为final representation。
    在推理阶段,计算similarity分值,判断mention和type是否搭配。 encoder:Elmo
  2. Hierarchy-Aware Type Encode
    hierarchical information, we perform the mask selfattention operation on types,a type only attends to its parent type in the hierarchy and itself, while the attention to the remaining types will be masked
    (type通过mask机制,只能attend to 和它有关系的父节点的type。)
    3.loss function
    (1)矩阵映射mention和type到同一个空间。
    (2)计算mention和每一个type的match score
    (3)计算loss function(cross-entropy)
    在这里插入图片描述

3 Background Knowledge-Aware (KA) Module

  1. Prototypes refer to the carefully selected mentions for a type based on Normalized Point-wise Mutual Information (NPMI)——原型(每个type下的部分mention构成的集合)
  2. Descriptions are queried from WordNet glosses
    (Miller, 1995) by type names
任务描述:

infer whether a mention m matches a candidate type t, given the prototypes, type description and the context.

具体细节

encoder:同module 2
信息表示:
rmc-mention&context
rtp-type&prototype
rh-type&mention
信息映射:
将所有的信息映射到统一的向量空间;
在这里插入图片描述
损失函数:
借鉴了TransE的思想:
在这里插入图片描述

整个过程的训练损失——三个module之和

推理阶段

单独计算三个module的score,再计算score之和。作为评价依据。
在这里插入图片描述

04 论文实验

消融实验

Ablations of CA:CA模块是否finetune
Ablations of HA:HA采用不同的encoder
Ablations of KA:是否采用prototype和description

在不同长度文本上,不同模块的效果

在这里插入图片描述

在test数据集上,不同模块的效果

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

YingJingh

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值