#今日论文推荐# ACL 2022 | 跨语言命名实体识别:无监督多任务多教师蒸馏模型

该论文介绍了一种用于跨语言命名实体识别(NER)的无监督多任务多教师蒸馏模型。模型通过训练两个不同类型的LabeledData,结合序列标注和句对相似性任务,利用三个独立Encoder进行特征抽取。TeacherModel的输出经过Softmax归一化后与标签进行CrossEntropyLoss计算。最终,通过蒸馏过程将TeacherModel的知识转移到StudentModel。
摘要由CSDN通过智能技术生成

#今日论文推荐# ACL 2022 | 跨语言命名实体识别:无监督多任务多教师蒸馏模型

这是一篇来自于 ACL 2022 的关于跨语言的 NER 蒸馏模型。主要的过程还是两大块:1)Teacher Model 的训练;2)从 Teacher Model 蒸馏到 Student Model。采用了类似传统的 Soft 蒸馏方式,其中利用了多任务的方式对 Teacher Model 进行训练,一个任务是 NER 训练的任务,另一个是计算句对的相似性任务。整体思路还是采用了序列标注的方法,也是一个不错的 IDEA。

Teacher Model 在进行训练时,采用了两种不同的 Labeled Data,一种是传统的单文本序列标注数据;另一种是句对类型的序列标注数据,然后通过三个独立的 Encoder 编码器进行特征抽取,一个任务就是我们常用的 NER 训练任务,也就是将 Encoder 编码器的输出经过一个线性层映射为标签数的特征矩阵,对映射的特征矩阵进行 softmax 归一化(这里笔者理解就是 NER 任务中的 BERT+Softmax 模型),利用归一化后的特征矩阵与输入的 labels 进行 loss 计算,这里采用的是 CrossEntropyLoss。

论文题目:An Unsupervised Multiple-Task and Multiple-Teacher Model for Cross-lingual Named Entity Recognition
详细解读:https://www.aminer.cn/research_report/62ce6de97cb68b460fea231cicon-default.png?t=M666https://www.aminer.cn/research_report/62ce6de97cb68b460fea231c
AMiner链接:https://www.aminer.cn/?f=cs

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值