序列标注_赛尔原创 | ACL20 让模型“事半功倍”,探究少样本序列标注方法

论文名称:Few-shot SlotTagging with Collapsed Dependency Transfer and Label-enhanced Task-adaptiveProjection Network

论文作者:侯宇泰,车万翔,赖勇魁,周之涵,刘一佳,刘晗,刘挺

原创作者:侯宇泰

论文链接:

https://arxiv.org/abs/1906.08711

代码链接:

https://github.com/AtmaHou/FewShotTagging

少样本学习(Few-shot learning)是近年来研究热点之一。然而,已有研究主要集中在图像任务和简单分类任务上,针对NLP复杂任务(e.g. 对话任务)或者NLP特有挑战(e.g. 结构化预测问题)的小样本研究领域,仍然是一片蓝海。

本文首先简单介绍小样本学习任务,然后介绍我们在ACL2020上的论文。论文中我们以对话中的语义槽标记(Slot Tagging)为切入点,探究了小样本下的序列标注问题。在语义槽标记(Slot Tagging)和命名实体识别(NER)两个序列标注任务上我们的模型大幅优于最强的Few-shot baseline 7.96和11.70 F1-score

1. 少样本学习

(Few-shot Learning)

近年来,人工智能在深度学习方法的帮助下取得了令人瞩目的成就。然而目前的深度学习方法都需要大量的标注训练数据,而在真实的落地场景下,大量人工标注数据往往是很难获得的。以任务型对话为例,产品开发时往往难以获得待开发功能的真实用户语料。即使有生语料,任务型对话开发也面临着人工数据标注成本高昂的挑战。同时,如Fig 1所示,像对话系统这样的人工智能应用往往面临着需求频繁变化的问题,导致繁重数据标注任务常常需要反复进行。

0a8315c8ba75dd249549ea6f32667ebf.png

Fig 1 现实中智能系统经常需要适配新的功能

反观人类,人在学习一个新的任务时只需要少数几个样例(见Fig 2)。这种巨大的反差启发科研人员开始探索能够像人一样,利用先前经验和少量数据进行学习的人工智能系统。

8df775b8efcf835021ae47a37bacd1ae.png

Fig 2 人类擅长从少量样本中学习

少样本学习(Few-shot Learning)就是专门针对上述问题的新兴研究方向。如Fig 3所示,少样本学习专门研究如何利用过往经验知识,在新的任务上只使用少数几个样例数据进行学习,通常在新的任务上每个类别只有1-5个样例数据。

166b6b58668e1e7b0a97f323397e7cf8.png

Fig 3 5 way-1 shot少样本学习样例

以往少样本的研究主要集中在图像领域,针对NLP特有问题(e.g. 结构化预测问题和序列标注问题)的少样本研究的还较少。这些Few-shot NLP问题有着独特的挑战,相关技术也能切实帮助NLP应用解决数据难题真正落地,是值得探索的新兴研究领域(Fig 4)。

53a5b972f5b760de0ac8a14f74ead464.png

Fig 4 Few-shot在NLP问题的研究方兴未艾

2. 简介

目前针对少样本学习的工作主要研究少样本的图像分类问题,对于自然语言处理任务的探索也主要着眼于短文本分类任务。我们的工作以语义槽标记(Slot Tagging)入手,探索了序列标注(Sequence Labeling)任务中的少样本学习方法。

少样本序列标注任务面临着不同于其他纯粹的分类任务的独特挑战,因为序列标注是一个结构化预测问题,有建模标签间的依赖关系的需求。然而,不同领域通常具有不同的标签集,这使得难以跨领域地学习标签依赖性——无法利用过往经验。

2e4a261ed5db18fc7deeb9be5d773d02.png

Fig 5 我们的少样本语义槽标记模型框架图

在本文中,为了建模标签之间的依赖关系(Transition Score),我们提出了一种跨领域建模标签依赖关系的方法——坍缩依赖迁移(Collapsed Dependency Transfer)。我们首先从数据充足的源域(Source Domain)学习抽象标签依赖关系,并在少样本的目标域中泛化学到的依赖关系来辅助标签序列的预测。

为了在小样本情形下得到每个词的标签概率(Emission Score),我们提出L-TapNet,来基于每个词和不同标签表示的相似度计算属于不同标签的概率。L-TapNet在计算时利用了label名字中的语义信息,并通过线性偏差消除法(Linear-error Nulling)构造映射空间来将不同标签类别在embedding空间有效分开。

最终,我们提出了一种基于CRF的少样本序列标记框架,以整合上面提到跨领域标签依赖建模和L-TapNet给出的标签概率(见Fig 5)。在语义槽标记(Slot Tagging)和命名实体识别(NER)数据集上的实验表明,我们的模型在1-shot设置中分别显着优于最强的少样本学习baseline 7.96和11.70 F1-score。

3. 方法

3.1 模型

如Fig 5所示,我们提出了一个基于CRF的少样本序列标记框架。它通过整合基于相似性的标签概率(Emission Score)和从先前经验学到的跨领域标签依赖关系(Transition Score)来找到最佳标签序列。具体的,框架由三个主要模块构成:Transition Scorer、Emission Scorer、Context Embedder。

1)转移打分模块Transition Scorer

Transition Scorer 负责估计标签的转移概率。如Fig 6所示,它通过将特定领域的标签划分为几个抽象标签类别,并建模抽象标签之间依赖关系。由于我们的抽象分类标准是可以跨领域的,我们得以将抽象的标签依赖信息从源域迁移到目标域。在目标域上,我们直接将迁移的抽象标签依赖关系扩展为特定领域的具体标签之间的依赖关系。扩展过程如图所示,我们把抽象转移概率表(Collapsed LabelTransition)中的值,填到具体转移表(Expanded Label Transition)中颜色相同的位置,从而得到具体的转移概率。由于整个过程是可导的,因而我们直接端到端地在一个个具体的源领域,用反向传播的方式学习抽象转移概率。

8032074a9c06afa3b52069e46c17b298.png

Fig 6 坍缩标签依赖示意图

2) 标签概率打分模块Emission Scorer

如Fig 7所示,Emission Scorer利用词(Token)和标签表示(Label Representation)的相似度,得到待预测语句每一个词的标签分布概率分布。这个过程中,标签表示是通过观察少量已有标签样本得到的,如平均所有该标签词的embedding,而相似度度量函数是在富数据源于学得的。在我们的框架中,Emission Scorer可以替换为任意的少样本分类模型如Prototypical Network,Matching Network等。这里,我们在近期的图像少样本分类模型TapNet基础上,利用标签名称语义来表示标签,提出了一种标签增强的任务自适应投影网络(L-TapNet)。具体的,我们通过利用标签名中的语义信息得到更好的标签表示,并通过以及线性偏差消除法(Linear-error Nulling)方法,用运算的方法得到一个映射空间,使得在映射空间中,不同的,不同的标签表示能有效地分开。

005e2da87c08daa5c374f7a808d402c5.png

Fig 7 L-TapNet 发射概率模型

3)上下文相关词表示模块 Context Embedder

Context Embedder为语句中的每一个词提供上下文相关的词表示,这里我们使用bert来完成。为了更好的捕获领域特点和消除歧义,我们提出pair-wise embedder成对地表示带标签支持样例和待标注样本。具体如Fig 8 所示,通过利用support句子中的领域特定上下文,我们能够有效地消除词表示的歧义。

aaa3de773fe37055931524d943474317.png

Fig 8 Pair-wise Embedding示例图

3.2 模型训练

bc28bca22a32233e8fb6e20459b6bb7f.png

Fig 9 模型训练与测试过程

前人工作(Vinyalset al., 2016)提出,在训练时模拟few-shot状态有助于提升模型表现。我们沿用了他们的这种Meta-training的训练策略,训练过程如Fig 9所示。

特别的,我们的整个模型架构都是可导的,因而,我们在训练时直接使用CRF的LogLikelihood作为Loss进行端到端训练。

4. 实验

4.1 数据集

针对语义槽标记任务,我们使用snips dataset (Coucke et al., 2018)来评价模型. 它一共包含7个领域的数据:Weather (We), Music (Mu), PlayList (Pl),Book (Bo), Search Screen (Se), Restaurant (Re) and Creative Work (Cr).

对于NER任务,我们使用4个不同的数据集:CoNLL-2003 (Sang and De Meulder, 2003),GUM (Zeldes, 2017), WNUT-2017 (Derczynski et al., 2017) 以及 Ontonotes (Pradhan et al., 2013),每一个数据集包含一个领域的数据:News, Wiki, Social and Mixed。

我们把现有的数据构造成了N-way,K-shot的格式。

4.2 实验

Slot Tagging 和 NER的实验结果(表1 - 4)显示我们的模型(Ours)取得了最最优效果,并大幅领先最强的已有模型。同时,建模跨领域的标签依赖关系(CDT)和考虑标签名语义能够稳定地提升模型表现。此外,我们可以看到少样本方法相对传统方法(TransferBERT,Bi-LSTM等)的巨大优势。

表1 1-shot 语义槽标记实验结果

c66e9e0a52ad86dd0047aace8d2c9667.png

表2 5-shot 语义槽标记实验结果

102e2e8c3f7b226e58386221d02cf0bc.png

表3 1-shot NER实验结果

5870bd5702b99c98dca640b832fab965.png

表4 5-shot NER实验结果

8739e6688b54e6a0c963e0d9b5d99277.png

4.3 分析实验

表5展示了模型各模块有效性分析实验室结果。可以看到,我们提出各个模块都不同程度地对最终模型提升贡献了。

表5 消融实验结果

c0680624238f2cc2a6e8a34a6985c3a5.png

表6展示了错误案例分析结果,根据标签类型,标签转移情况可以分为以下类别:O-O,O-B,B-O,I-O,B-I,I-I和其他。结果展示了模型对不同类型的标签转移情况的准确率。Proportion表示数据集中不同转移情况占的比例。表6的案例分析结果显示,跨领域的标签依赖(CDT)可以有效的提升两类标签预测精度:标签边缘的标签与涉及到标签一致性的标签。

表6 标签准确率案例分析

644b8fd6668fdef26bf86bde484be580.png

此外,在表七中,我们和标签转移规则进行了比较,发现CDT可以大幅优于传统的基于规则的转移,由此可知迁移标签依赖学到了规则意外的更丰富的知识。

表7 CDT与转移规则的比较

2d4421f7628121e0b3fb85cfc12f83c1.png

5.结论

本文的主要贡献可归纳如下:

(1)我们提出了一种基于CRF的少样本序列标记框架,它通过整合token相似度和标签依赖关系的先前经验来预测少样本序列标签。

(2)我们引入坍缩依赖迁移(Collapsed Dependency Transfer)来跨标签集、跨领域转移标签依赖性。

(3)我们提出了L-TapNet来得到更好的标签表示建模,从而更准确地预测标签概率。

6.相关链接

讲解视频:

1)12分钟短版(英文):

https://slideslive.com/38929212/exploration-on-fewshot-tagging

2)50分钟细节版(中文):

https://mooc.yanxishe.com/open/course/795

我们组织的小样本评测比赛:

https://smp2020.aconf.cn/smp.html#3

参考文献

[1]OriolVinyals, Charles Blundell, Timothy Lillicrap, Daan Wierstra, et al. 2016.Matching networks for one shot learning. In NIPS, pages 3630–3638.

[2]AliceCoucke, Alaa Saade, Adrien Ball, Theodore ´ Bluche, Alexandre Caulier, DavidLeroy, Clement ´ Doumouro, Thibault Gisselbrecht, Francesco Caltagirone,Thibaut Lavril, Mael Primet, and Joseph ¨ Dureau. 2018. Snips voice platform:an embedded spoken language understanding system for privateby-design voiceinterfaces. CoRR, abs/1805.10190.

[3]ErikF. Tjong Kim Sang and Fien De Meulder. 2003. Introduction to the conll-2003shared task: Language-independent named entity recognition. In Proc. of the CoNLL-HLT-NAACL,pages 142–147.

[4]AmirZeldes. 2017. The gum corpus: creating multilayer resources in the classroom.Language Resources and Evaluation, 51(3):581–612.

[5]LeonDerczynski, Eric Nichols, Marieke van Erp, and Nut Limsopatham. 2017. Resultsof the wnut2017 shared task on novel and emerging entity recognition. In Proc.of the 3rd Workshop on Noisy Usergenerated Text, pages 140–147.

[6]SameerPradhan, Alessandro Moschitti, Nianwen Xue, Hwee Tou Ng, Anders Bjorkelund,Olga Uryupina, ¨ Yuchen Zhang, and Zhi Zhong. 2013. Towards robust linguisticanalysis using ontonotes. In Proc. of the CoNLL, pages 143–152.

延伸阅读

哈工大SCIR八篇论文被AAAI-20录用

哈工大SCIR八篇长文被ACL 2020录用

赛尔原创 | WWW20 关键词生成提升电商会话推荐

赛尔原创 | ACL20 基于对话图谱的开放域多轮对话策略学习

赛尔原创 | ACL20 基于图注意力网络的多粒度机器阅读理解文档建模

赛尔原创 | ACL20 用于多领域端到端任务型对话系统的动态融合网络

本期责任编辑:李忠阳

本期编辑:冯梓娴

哈工大SCIR』公众号

主编:车万翔 副主编:张伟男,丁效 执行编辑:高建男 责任编辑:张伟男,丁效,崔一鸣,李忠阳 编辑:赖勇魁,李照鹏,冯梓娴,胡晓毓,王若珂,顾宇轩 长按下图即可关注哈尔滨工业大学社会计算与信息检索研究中心微信公众号 『哈工大SCIR』 。 4de3503f5137d67e788f332de3681498.png
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值