论文链接:
代码链接:
Abstract
在对话系统中发现新意图是一项关键的任务,大多数现有的方法在将先验知识从已知的意图转移到新意图上是有限制的。同样,在对分组未标记的意图方面提供高质量的监督信号去学习clustering-friendly的特征也是有困难的。在这篇论文的工作中,提出了一种有效的方法,Deep Aligned Clustering (深度对齐聚类)。
发现新的意图是对话系统中的一项关键任务。大多数现有的方法在将先验知识从已知意图转移到新意图方面是有限的。他们在提供高质量的监督信号来学习聚类友好的特征,以分组未标记的意图方面也有困难。在这项工作中,我们提出了一种有效的方法,Deep Aligned Clustering(深度对齐聚类),在有限的已知意图数据的帮助下发现新的意图。
首先,利用一些已标记的已知意图样本作为先验知识,对模型进行预训练。
然后,执行k-means来产生cluster assignments(聚类分配)作为伪标签。
此外,提出了一种alignment strategy(对齐策略)去解决cluster assignments(聚类分配)过程中标签不一致的情况。
最后,在the supervision of the aligned pseudo-labels(对齐的伪标签的监督)下学习intent representations(意图表示)。
在新意图数量未知的情况下,我们通过消除low-confifidence intent-wise clusters(低置信度的意图集群)来预测意图类别的数量。
Introduction
(1)作为一个无监督的聚类问题,试图去组合一些弱的监督信号。
a、分层语义聚类模型,隐式监督。
b、在聚类过程中,语义解析图作为额外知识去开采新意图。
c、多种聚类技术去发现相似语义的意图聚类。
d、在结构化输出的监督下,将问题划分为用户意图种类。
e、利用自动编码器(autoencoder)提取意图特征,并使用层次聚类方法(hierarchical clustering method)自动标记意图。
上述的方法没有利用了已知意图的先验知识,并且假定未被标记的样本只能由未被发现的新意图组成。
介绍作者之前的工作:CDAC+(目标是找到已知的意图和利用有限的标注数据的先验知识去发现新意图),使用了pairwise similarities 作为弱监督信号。
两个挑战:
(1)利用有限的标记数据,有效地将先验知识从已知的意图转移到新的意图是一个挑战。
(2)构建高质量的监督信号去学习对于未标记意图和新意图聚类的好的表示(representations)是困难的。
作者提出了一个有效的方法去利用这些已知意图的有线先验知识,同时对表示学习提供好的监督信号。
Related Work
Intent Modeling(意图建模)
Unsupervised Clustering(无监督聚类)
Deep Clustering (深度聚类)
【1】联合无监督学习(JULE)【The joint unsupervised learning】将deep feature learning[(深度特征学习)和hierarchical clustering(层级聚类)结合起来,但是计算和内存成本较大。
【2】深度嵌入聚类(DEC)【Deep Embedded Clustering】通过优化带有辅助目标分布的KL散度来迭代细化聚类中心,对具有重构损失的自动编码器进行训练。
【3】深度聚类网络(DCN)(【Deep Clustering Network】引入k-means损失作为重构聚类损失的penalty term(惩罚项)。
【4】深度自适应图聚类(DAC)【Deep Adaptive Image Clustering 】利用成对相似性(pairwise similarities)作为学习目标,并采用自适应算法选择样本进行训练。
但是上述这些聚类方法不能够为表示学习提供特定的监督信号。
DeepCluster(深度聚类)交替地执行k-means和representation learning(表征学习)。
它将cluster assignments(聚类分配)视为pseudo-labels(伪标签),这是对每个类进行分组的显式监督信号。但是需要在训练之前随机初始化参数。
为了解决这个问题,提出了一种对齐策略,在不重新初始化的情况下为自监督学习(
Semi-supervised Clustering(半监督聚类)
通常会利用一些有标记的数据进行半监督聚类。
经典的约束聚类方法使用成对信息(pairwise information)作为约束条件来指导representation learning和clustering。
- COP-KMeans 使用实例级别的约束 (instance-level constraints),同时修改K-means来满足这种约束。
-
PCK-means 提出了一个成对约束聚类(pairwise constrained clustering)的框架,并且同学主动学习(active learning)方法来进一步选择信息性的对称约束。
-
MPCK-means 方法将度量学习(metric-learning)方法纳入了PCK-means,同时将基于度量的方法(metric-based methods)和基于中心(the centroid-based methods )的方法结合到一个统一的框架。 上述方法因为要枚举pairwise conditions,因此需要很大的计算成本。
-
KCL 使用深度学习网络来执行perform pairwise constraint clustering(成对约束聚类)。 首先,用一个带标记的辅助数据集来对binary similarity classifification训练一个额外的网络,其次,将pairwise similarity的先验知识转移到目标数据集,并且使用kl-散度来评估pairwise distance。
-
MCL 元分类似然法(meta classifification likelihood)作为学习成对相似性(pairwise similarities)的标准,但是,该领域的自适应方法有限。
-
CDAC+是专门为发现新的意图而设计的,它使用有限的标记数据作为学习成对相似性(pairwise similarities)的指南。然而在提供特定的监督信号方面是有限的,并且不能估计新类的数量( the number of novel classes)。
-
DTC 是在计算机视觉领域发现新类的方法,是改进的前面提到的DEC算法。它通过转移标记数据的知识来估计新类的数量。但是,这种方法中被标记数据的量对性能有影响。
Approach

如上图所示,首先使用BERT提取意图表示。
然后,用有限的标记数据从已知的意图中转移知识。
最后,提出一种对齐策略来提供自监督信号来学习聚类的表示。
Intent Representation(意图表示)
使用BERT模型来提取深度意图表示(deep intent representations)
首先将第 i 个输入句子 输入给BERT,并从最后一个hidden layer中获取其所有token的嵌入。
其中,M是句子的长度, M+1是因为加了[CLS], H 是hidden size。
之后,利用平均池化(mean-pooling)得到平均句子特征表示(averaged sentence feature representation),公式如下:其中
之后,为了进一步提高特征提取能力,增加了一个dense layer h 来获得意图表示(intent feature representation)
其中,D是intent representation 的维度,是Tanh 激活函数。
是权重矩阵,
是相应的bias term(偏差项)。
Transferring Knowledge from Known Intents(从已知意图转移知识)
为了有效地转移知识,使用有限的标记数据对模型进行预训练(pre-train),并利用前面提到的经过充分训练的意图特征(intent features )来估计the number of clusters(集群的数量)。
Pre-training
目的:希望结合有限的先验知识,以获得一个良好的表示初始化,来以分组已知和新的意图。
在交叉熵损失(the cross-entropy loss)的监督下学习特征表示。经过预训练后,去掉分类器(classififier),并在后续的无监督聚类(unsupervised clustering)过程中使用网络的其余部分作为特征提取器。
Predict K
总体思路:在实际中,可能并不总是知道新的意图类别的数量。在这种情况下,需要在集群之前确定集群的数量K。因此,论文作者提出了一种简单有效的方法在初始化良好的意图特征来估计 K 。
首先,指定一个大 作为集群的数量,例如选取两倍,使用预先训练好的模型来提取意图特征。
然后,对提取的特征进行k-means处理。
假设集群是趋向于密集的,同时可信的集群是大于阈值t的。去掉小于t的低置信聚类,然后计算K。
是第i个产生的集群的大小。
是指示函数(满足条件时输出1,不满足条件时输出0);阈值t 是期望的聚类平均大小
.
Deep Aligned Clustering(深度对其聚类)
在从已知的意图转移知识后,提出了一种有效的聚类方法来寻找未标记的已知类(unlabeled known classes)和发现新的类(novel classes)。
首先进行聚类,得到cluster assignments and centroids 聚类分配和质心。
然后,提出一个原始的策略来提供对齐的目标的自监督学习。


其中, 和
分别表示当前和最后一个训练时期的质心矩阵。
之后得到对齐的伪标签(aligned pseudo-labels)
(G的逆映射, 在当前的训练时代中的伪标签)
最后使用aligned pseudo-labels 进行自监督学习,损失函数如下:
使用聚类有效性指数(CVI) 评价 集群的质量
SC的范围在-1到1之间,得分越高表示聚类结果越好。
Experiments
Datasets
