Few-shot NER信息抽取综述

Few-shot NER方法介绍

2022

Template-free Prompt Tuning for Few-shot NER     NAACL

1. 使用预训练语言模型的单词预测范式来预测实体对应的label word,非实体部分预测是其本身
2. label word是通过class标签映射过去的word集合,比如PER:John,Steve,POS:china,japan等

3. label word的构建:通过知识库和远程监督的方法构造伪数据集,使用预训练模型获取topn的实体,然后基于统计和LM获取的实体构建label word
4. 不太适合中文数据集

5. label word样例:

6. 模型架构图

Label Semantics for Few Shot Named Entity Recognition  ACL

1. 使用BERT双塔模型,一个BERT对文档进行encoding,另外一个BERT对label的description进行embedding(如B_PER: begin person, I_PER:inside person)
2. label description的embedding方式:使用cls的embedding,使用引入上下文的label embedding(person is very good at playing basketball,然后获取person的embedding)
3. 使用dot product计算token embedding和label description embedding的相似度

Good Examples Make A Faster Learner Simple Demonstration-based Learning for Low-resource NER

1. 少样本NER中的示例学习

Prompt-based Text Entailment for Low-Resource Named Entity Recognition   COLING

1. 使用文本蕴含的方式,将文档作为前提promise,将label转化为prompt(最后append上一个mask,用来表示蕴含的类型),并作为假设hypothesis。
2. prompt构建时,一种是将实体类型替换成其他实体类型,为不存在实体类型的span增加null类型,另一种是替换成非实体span
3. 推理时,需要对每个span候选进行推理,效率低。提出了一个unit-level的改进方法,即把每个token的标签转化为文本描述(如 XX is the part of a location entity)

SpanProto: A Two-stage Span-based Prototypical Network for Few-shot Named Entity Recognition

1. 提出一种两阶段的少样本实体识别网络
2. 使用global pointer网络进行候选span的提取,使用原型网络对span进行分类
3. 针对候选实体中的假正例,使用了一种margin-based的loss

2021

Template-Based Named Entity Recognition Using BART   ACL Findings

1. 将source文本作为encoder的输入,构建template,并输入实体span和相应的label,作为decoder的target文本
2. 推理时,使用BART模型对所有候选实体构成的target文本进行打分,使用最高得分作为实体的标注结果
3. 训练:领域内,标签不均衡的情况;领域迁移,先在其他领域的丰富数据上训练,然后在少样本领域数据上fitune
4. 持续学习的能力

Named Entity Recognition with Small Strongly Labeled and Large Weakly Labeled Data

image2023-3-15_10-55-6.png

低资源数据增强

1. 使用相同类别的实体替换

2. 使用预训练语言模型对非实体部分进行替换(提升效果不显著),并可能出现替换实体类型不一致问题以及替换成非实体类型

3. 将golden实体插入到上下文中

4. 回译

方法1

Data Augmentation for Low-Resource Named Entity Recognition Using Backtranslation

方法2:

MulDA: A Multilingual Data Augmentation Framework for Low-Resource Cross-Lingual NER   ACL-IJCNLP 2021

2022

3Rs:Data Augmentation Techniques Using Document Contexts For Low-Resource Chinese Named Entity Recognition   IJCNN

1. 代码:https://github.com/alexsivan/3Rs

2. 中文NER数据增广方法:句子片段的组合、随机交换、随机删除

MELM: Data Augmentation with Masked Entity Language Modeling for Low-Resource NER   ACL

1. 提出了一种低资源下NER任务的数据增强方法
2. 对实体进行mask,并对实体的每个token的首尾添加label,label的embedding使用标签文本的embedding结果,目的是为了是模型生成类别属于改标签的实体
3. 基于2中的数据进行模型的预训练,预训练只对实体的token进行mask,并应用了一种基于高斯概率分布的mask策略,为了提高生成数据的多样性,取top5作为增强的数据。
4. 用只使用了原始数据集训练的模型对增强好的数据进行过滤,保留预测label和gt label相同的数据集

5. 代码:https://github.com/RandyZhouRan/MELM/

Blog

1. 中文小样本NER模型方法总结和实战:中文小样本NER模型方法总结和实战-腾讯云开发者社区-腾讯云

2. 微软、UIUC韩家炜组联合出品:少样本NER最新综述:微软、UIUC韩家炜组联合出品:少样本NER最新综述

Few-Shot Named Entity Recognition: A Comprehensive Study

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值