label-embedding在文本分类中的应用

©PaperWeekly 原创 · 作者|蔡杰

学校|北京大学硕士生

研究方向|QA

最近在做文本分类相关的工作,目标是想提高分类器泛化新样本的能力,当有新样本产生的时候能够不需要重新训练分类器。所以挖了挖这个领域的研究,不挖不知道,一挖吓一跳,没想到这个坑还挺深的,看着看着就从普通的分类延续到 few-shot,zero-shot 以及 meta-learning 去了。在这里先介绍几篇与 label-embedding 相关的工作,以后有时间了其他的方法有时间了慢慢码字。

LEAM

论文标题:Joint Embedding of Words and Labels for Text Classification

论文来源:ACL 2018

论文链接:https://arxiv.org/abs/1805.04174

代码链接:https://github.com/guoyinwang/LEAM

1.1 概述

这篇文章作者将文本分类看作是一个 label-word 的联合嵌入问题:可以将每个 label embedding 到 word 向量相同的空间中。

作者提出了一个注意力框架 Label-Embedding Attentive Model (LEAM) 的模型,该模型能够学习 word 和 label 在同一空间的 representation,并且可以用来衡量文本序列和 label 之间 embedding 的兼容性。其中注意力是在标记样本的训练集上学习的,以确保在给定的文本序列中,相关词的权重高于不相关词。

该方法保证了 word-embedding 的可解释性,并具有利用除了输入文本序列之外的其他信息源的能力。

在 Zero-Shot learning 中,label embedding 是一个很经典的方法,通过学习 label embedding,模型可以预测在训练集中未曾出现过的类别。

1.2 方法

首先作者介绍了,一般的方法将文本分类看做以下几个步骤:

f0:将句子 embedding 的过程。L 是序列长度,P 是 embedding 的维度。

f1:将句子 embedding 进行各种操作的过程,一般就是模型(TextCNN,BERT...)。

f2:模型输出之后的 ffn,用于映射到最后的 label 空间。

一般方法在 f1 只利用了来自输入文本序列的信息,而忽略了 label 的信息。作者发现使用标签信息只发生在最后一步 f2,因此作者提出一种新的 pipeline,将label信息纳入每一步,如下图所示:

作者提出的方法将文本分类看做以下几个新的步骤:

f0:学习 label 的 embedding 作为“anchor points”来影响 word embedding。

f1:利用 label 和 word 之间的相关性进行 word embedding 的聚合。

f2:保持不变。

为 sequence embedding 的矩阵,为 label embedding 的矩阵,利用 cosine 相似度计算每个 label-word 之间的相似度:

进一步获取连续词(即连续词)之间的相对空间信息,对于以 l 为中心长度为 2r+1 的文本做如下操作:</

  • 4
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: "Label embedding" 可以翻译成 "标签嵌入"。 在机器学习领域,标签嵌入是一种将离散型标签转化为低维实数向量的方法。通过标签嵌入,可以将标签与向量空间联系起来,从而方便进行基于标签的分类、聚类等任务。 ### 回答2: 翻译label embedding可以理解为将标签转化为向量表示的过程。在自然语言处理领域,词嵌入(word embedding)是将词语转化为向量表示的常用技术,而标签嵌入(label embedding)则是将标签(如分类标签)转化为向量表示的类似方法。 通过使用标签嵌入,我们可以将离散的标签转化为连续的向量表示,从而使得标签可以参与到机器学习模型的训练过程。标签嵌入可以帮助模型更好地理解标签之间的关系,提高模型在分类、回归等任务上的性能。例如,对于一个文本分类任务,我们可以使用标签嵌入将文本对应的标签转化为向量表示,然后将这些向量输入到模型进行训练。 标签嵌入的生成方法可以有多种,其一种常用的方法是使用预训练的词嵌入模型为标签生成对应的向量表示。通过这种方式,我们可以利用标签与词语之间的关联,将标签通过词嵌入模型转化为向量表示。另外,也可以利用标签之间的语义关系或者标签与特征之间的关系来生成标签嵌入。生成标签嵌入后,我们可以将其应用于各种机器学习模型,例如神经网络模型、决策树模型等。 总之,翻译label embedding即为将标签转化为向量表示的过程,可以通过不同方法生成标签嵌入,并在各种机器学习任务提升模型性能。 ### 回答3: 在自然语言处理领域,翻译label embedding(标签嵌入)是指将文本标签转化为连续向量表示的过程。传统的文本标签表示方法是使用one-hot编码,即将每个标签表示为一个稀疏向量,只有一个元素为1,其余元素均为0。然而,这种表示方式无法捕捉到不同标签之间的语义关联。 而翻译label embedding通过学习一个高维向量空间的标签嵌入,将每个标签映射到该空间的一个连续向量表示。通过这种方式,标签之间的语义关联可以被捕捉到。具体而言,翻译label embedding是通过训练一个模型,该模型可以将标签映射到连续向量空间的位置。这个模型可以基于神经网络或其他机器学习方法。 使用翻译label embedding可以带来一些好处。首先,连续向量表示可以提供更丰富的语义信息,从而改善标签之间的相似度计算。其次,这种表示方法可以减少标签空间的维度,降低计算复杂度。此外,翻译label embedding可以用于多个自然语言处理任务,如文本分类、文本聚类和信息检索等。 总之,翻译label embedding是将文本标签转化为连续向量表示的过程,通过学习标签在高维向量空间的位置,捕捉标签之间的语义关联。这种表示方法在自然语言处理任务具有广泛的应用价值。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值