中文命名实体识别NER:FLAT

目录

一、模型结构

1、位置编码

2、基于相对位置编码的self-attention

3、Feed Forward Neural Network

二、损失函数


 来自ACL2020复旦大学邱锡鹏老师团队的NER领域又一力作:FLAT: Chinese NER Using Flat-Lattice Transformer.

本文在Lattice LSTM(ACL 2018)的基础上作出了两方面的改进:

  • 作者提出了一种将Lattice图结构无损转换为扁平的Flat结构的方法,并将LSTM替换为了更先进的Transformer Encoder,该方法不仅弥补了Lattice LSTM无法「并行计算」(batchsize=1)的缺陷,而且更好地建模了序列的「长期依赖关系」

  • 作者提出了一种针对Flat结构的「相对位置编码机制」,使得字符与词汇得到了更充分更直接的信息交互,在基于词典的中文NER模型中取得了SOTA。

一、模型结构

1、位置编码

FLAT给每一个token/span(字、词)增加了两个位置编码,分别表示该span在sentence中开始(head)和结束(tail)的位置,对于字来说,head position和tail positio

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值