论文阅读(中文命名实体识别)FLAT: Chinese NER Using Flat-Lattice Transformer

系列文章目录

提示:这是第一篇,以后再添加


FLAT: Chinese NER Using Flat-Lattice Transformer


前言

本论文相关工作被ACL2020会议接收。 近年来,将词典信息加入模型被证明对中文命名实体识别任务很有效。但是结合词典的方法通常会使输入变为一个动态的结构,模型需要在运行时动态改别结构来表征输入,导致无法有效利用GPU的并行计算,运行速度缓慢。因此提出了FLAT模型,在Transformer的基础上,采用一个特殊的位置编码表征输入结构,而不需要在运行时改变结构来表征输入。实验结果显示我们的模型在识别实体的正确率以及运行速度上均有良好的表现。

一、基础概念

命名实体识别 Named Entity Recognition (NER) :

  • 从句子中抽取出一些具有特定含义的实体:组织名,地名,人名等,给定正确的分类。
  • 目前NER一般被当作是一个序列标注任务:即在一个句子中的实体信息,会被转化成一个特定的标注序列
  • 序列标注问题的数据标注方式主要有:BIO和BIOES。
    其中:
    B,即Begin,表示开始
    I,即Intermediate,表示中间
    E,即End,表示结尾
    S,即Single,表示单个字符
    O,即Other,表示其他,用于标记无关字符
    如:小明在北京大学的燕园看了中国男篮的一场比赛
    [B-PER ,E-PER,O, B-ORG,I-ORG,I-ORG,E-ORG,O,B-LOC,E-LOC,O,O,B-ORG,I-ORG,I-ORG,E-ORG,O,O,O,O]
    模型训练完成后,模型根据输入的句子来输出对应的标签序列
    将标签序列转化为对应的实体信息,用于后续的性能测评与应用
  • NER是NLP中一个比较基础的上游任务,对很多任务来说都是很关键的:①提升
  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值