实体识别
文章平均质量分 63
SYSU_BOND
这个作者很懒,什么都没留下…
展开
-
基于卷积注意力神经网络的命名实体识别(CAN-NER)
CAN-NER: Convolutional Attention Network for Chinese Named Entity Recognition(NAACL-HLT 2019)原创 2021-05-29 00:42:11 · 1865 阅读 · 3 评论 -
带自注意力的命名实体识别迁移学习
Adversarial Transfer Learning for Chinese Named Entity Recognition with Self-Attention Mechanism原创 2021-05-28 09:34:23 · 768 阅读 · 0 评论 -
FLAT: Chinese NER Using Flat-Lattice Transformer【ACL2020】
结合TENER和Lattice LSTM的改进工作:改LSTM为Transformer,这样匹配词就可以通过在Transformer的Self-Attention的时候引入,并通过调整position encoding用以计算Attention时作单词对齐 模型架构:单层Transformer,改进Self-Attention部分以适配词信息 1. 每个token表示为emb + pos【begin、end】2. Self-Attention计算,以词w_i和词w_j间Atten..原创 2021-05-28 00:48:31 · 498 阅读 · 0 评论 -
TENER: Adapting Transformer Encoder for Named Entity Recogni
这篇文章应该是第一篇使用Transformer取得比较好效果的论文,分析了Transformer的特性,同时提出两种改进: 一个是position embedding只体现了距离,但没有方向性,NER中方向性是非常重要的,故而使用相对距离的方法表示 【基于直觉】对于NER任务,可能几个上下文关键词就可以帮助判断,故而应该增强这些关键词的作用,而原始Transformer会有scale过程削弱这些词作用,故而使用un-scaled、sharp的Attention,增强...原创 2021-05-28 00:37:58 · 396 阅读 · 0 评论 -
Chinese NER Using Lattice LSTM【ACL2018】
1. 提出先验词的网格结构:2. 基于上述网格结构,设计Lattice-LSTM,用于融合先验词信息:在实现细节上,以字粒度LSTM模型未基础,融入单词网格信息:单词如“南京市”,表示为向量,由预训练词向量如Word2Vec表示 并通过一个与LSTM Cell相同的运算,得到单词Cell State,以及一个类似于Input Gate的结果【注意这里使用是词向量,不是字向量】用于跟原本LSTM中的Input Gate去计算权值【word level 没有Output Gate】:原创 2021-05-28 00:16:46 · 277 阅读 · 0 评论