AAAI-2022-NER-Unified Named Entity Recognition as Word-Word Relation Classification

Unified Named Entity Recognition as Word-Word Relation Classification

做的比较精细的一个工作,是在表中实现了三种识别的统一。嗯哼,了了心头一事。主要是前一周一直在考虑怎么在表中实现统一识别。毕竟generative的方式出来了,图的方式出来,表的还差。

反思:在动手实操还有其他之前,一定要先把任务可能的形式想清楚,就比如,这种不连续实体,可能左不连续,也可能右不连续,但你只考虑了右不连续的场景,没有考虑到中间不连续等等场景,最后做的也不对。耗时耗力,没讨着好。

模型架构-整理架构

定义了两种关系类型,是否是下一个next word和tail-head word。在一个n*n的表格中,上三角部分表示next word relation,下三角部分表示tail-head word relation。

实体可能存在的几种情况:

在这里插入图片描述

在这里插入图片描述

模型架构01-encoder layer

Bert——Bi-LSTM——获得word的embedding。

模型架构02-conv layer

我们的卷积层包括三个模块,包括一个用于生成词对网格表示的归一化条件层 (Liu et al. 2021),一个 BERT 风格的网格表示构建以丰富词的表示 -对网格,以及用于捕获近处和远处单词之间的交互的多粒度扩张卷积

Conditional Layer Normalization——归一化条件层:为了得到高质量的span 表示,用来得到relation,借鉴了Liu等人的CLN机制。
V_{ij}表示word pair(x_{i},x_{j}).
在这里插入图片描述
Bert 灰度表示:V ∈ R N×N×dh 表示词信息,张量 Ed ∈ R N×N×dEd 表示每对词之间的
相对位置信息
,张量 Et ∈ R N×N×dEt 表示区域信息区分网格中的下三角区域和上三角区域

模型架构03- predict layer

**Co-Predictor Layer:**MLP 预测器可以通过与用于关系分类的双仿射预测器合作来增强。因此,我们同时采用这两个预测器来计算单词对 (xi , xj ) 的两个独立关系分布,并将它们组合为最终预测。

词对 (xi , xj ) 的最终关系概率 yij 是通过组合来自 bi 仿射和 MLP 预测器的分数来计算的.

在这里插入图片描述
在这里插入图片描述

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

YingJingh

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值