目录
来自ACL2020复旦大学邱锡鹏老师团队的NER领域又一力作:FLAT: Chinese NER Using Flat-Lattice Transformer.
本文在Lattice LSTM(ACL 2018)的基础上作出了两方面的改进:
-
作者提出了一种将Lattice图结构无损转换为扁平的Flat结构的方法,并将LSTM替换为了更先进的Transformer Encoder,该方法不仅弥补了Lattice LSTM无法「并行计算」(batchsize=1)的缺陷,而且更好地建模了序列的「长期依赖关系」;
-
作者提出了一种针对Flat结构的「相对位置编码机制」,使得字符与词汇得到了更充分更直接的信息交互,在基于词典的中文NER模型中取得了SOTA。
一、模型结构
1、位置编码
FLAT给每一个token/span(字、词)增加了两个位置编码,分别表示该span在sentence中开始(head)和结束(tail)的位置,对于字来说,head position和tail positio