#最全面# NLP获取词向量的方法(Glove、n-gram、word2vec、fastText、ELMo 对比分析)

自然语言处理的第一步就是获取词向量,获取词向量的方法总体可以分为两种两种,一个是基于统计方法的,一种是基于语言模型的

1 Glove - 基于统计方法

Glove是一个典型的基于统计的获取词向量的方法,基本思想是:用一个词语周边其他词语出现的次数(或者说两个词共同出现的次数)来表示每一个词语,此时每个词向量的维度等于词库容量,每一维存储着词库对应序号的词语出现在当前词语周围的次数,所有这些词向量组成的矩阵就是共现矩阵

我们也可以换一个角度来理解共现矩阵,共现矩阵就是两个词同时出现的次数,共现矩阵的i行j列的数值表示词库中第i个词和第j个词同时出现的次数,同时共现矩阵是对角线为零的斜对称矩阵
大家可以通过下边这个例子来更直观的理解共生矩阵
在这里插入图片描述

1.1 实现步骤

  • 统计所有语料当中任意两个单词出现在同一个窗口中的频率,结果表现为共现矩阵 X

  • 直接统计得到的共现矩阵 X,大小为 |V| x |V|(V=词库容量)

  • 实践当中通常对原始统计矩阵施加 SVD(Singular Value Decomposition)来降低矩阵维度,同时降低矩阵的稀疏性

1.2 优点

  • 训练速度快
  • 充分利用了全局的统计信息

1.3 存在的问题

  • 对于单一词语,只有少部分词与其同时出现,导致矩阵极其稀疏,因此需要对词频做额外处理来达到好的矩阵分解效果
  • 矩阵非常大,维度太高
  • 需要手动去掉停用词(如although, a,…),不然这些频繁出现的词也会影响矩阵分解的效果

2 基于语言模型的方法

按照语言模型的演进历史,大体可分为三类:文法型语言模型、统计语言模型、神经概率语言模型;文法型语言模型是人工撰写的语言规则,这里不做赘述

2.1 基于 n-gram 的语言模型

基于 n-gram 的语言模型是基于统计的语言模型,在NLP任务中,我们往往要计算一个句子出现的概率,通常的做法是:

  1. 对于句中的每个词,计算在给定前边所有词的条件下每个词出现的条件概率 p(wt|wt-1…w1)
  2. 将每个词出现的条件概率连乘,从而得到当前句子出现的概率(当前句子对应词语组合出现的概率)公式如下:
    p ( S ) = P ( w 1 , w 2 , . . . , w T ) = ∏ t = 1 T p ( w t ∣ w t − 1 , w t − 2 , . . . , w 1 ) p(S)=P(w_1, w_2, ..., w_T)=\prod_{t=1}^Tp(w_t|w_{t-1}, w_{t-2}, ..., w_1) p(S)=P(w1,w2,...,wT)=t=1Tp(wtwt1,wt2,...,w1)

但是上述方法有两个缺陷:
4. 参数空间过大,概率 p(wt|wt-1…w1) 的参数有 O(n)O(n)O(n) 个。
5. 数据稀疏严重,有些词同时出现的情况可能没有,组合阶数高时尤其明显。

为了解决上述问题,n-gram 模型使用n阶马尔可夫假设对上述p(S)公式进行了简化处理,即用前n-1个词代替当前词前边的所有词计算当前词出现的条件概率,简化后的p(S)公式如下:

p ( w t ∣ w t − 1 , w t − 2 , . . . , w 1 ) ≈ p ( w t ∣ w t − 1 , w t − 2 , . . . , w t − n + 1 ) p(w_t|w_{t-1}, w_{t-2}, ..., w_1) \approx p(w_t|w_{t-1}, w_{t-2}, ..., w_{t-n+1}) p(wtwt1,wt2,...,w1)p(wtwt1,wt2,...,wtn+1)

每个单词出现的条件概率如下:
在这里插入图片描述

简单解释一下n阶马尔可夫假设:

  • 简单来说,n阶马尔可夫假设的意思就是:符合马尔科夫过程的随机变量,当前状态只和前n-1个状态有关,即N阶马尔可夫假设认为,当前词出现的概率只依赖于前 n-1 个词
  • 1阶马尔科夫假设当前状态只和当前状态有关,1阶马尔科夫假设不会考虑上下和当前次的关系,因此n一般大于1

这里插一嘴,笔者认为 虽然 n-gram 只用到了前 n-1 个数据,但是这前 n-1 个数据也是由前边数据得出的,因此 n-gram 也间接用到了前边的数据

2.2 基于神经网络的语言模型

基于神经网络的语言模型根据学习方法不同大体可以分为两大类,分别是Feature-based和Fine-tune,其中Feature-based学习方法就是通过神经网络获取词向量 ,ELMo、fastText、word2vec、NNLM就是Feature-based典型的例子
详细了解Feature-based 和 Fine-tune 的区别请参考->#深入理解# NLP 中的 Feature-based 和 Fine-tune 两种学习方法
虽然 ELMo、FastText、Word2vec等都是获取词向量的模型,但是fastText、word2vec (其实NNLM也能得到词向量)得到的是静态词向量,得到的词向量不考虑上下文(对于不同语境下的同一单词给出的词向量是相同的),因此不能够解决一次多义的问题。
而 ELMo 等语言模型会根据词语的上下文的不同对同一词语给出不同的词向量,从而解决的一词多义的问题。

2.2.1 word2vec

word2vec 思想是训练一个神经网络,然后提取神经网络中的参数作为词语的词向量;训练网络的方式有两种,一种是cbow 一种是 skip-gram,前者是通过上下文词语预测中间词,后者是通过中间词预测周围词;哪种训练方法并不重要,我们也不会真正用这个模型去做预测,我们的目的是提取最终网络中的参数作为词语的词向量

2.2.2 fastText

fastText 设计之初是为了解决文本分类问题的,只不过在解决分类问题的同时 fastText 也能产生词向量,因此后来也被用来生成词向量
fastText 和 word2vec 类似,也是通过训练一个神经网络,然后提取神经网络中的参数作为词语的词向量,只不过 fastText 训练网络的方法是对文本进行分类;此外 word2vec 的输入是多个词语的 noe-hot 编码,fastText的输入是多个单词及其n-gram特征;同时fastText为了解决类别过多导致的softmax函数计算量过大的问题,使用了层次softmax代替标准的softmax
fastText 和 word2vec 最主要的区别如下:

  1. 输入增加了n-gram特征
  2. 使用 层次softmax做多分类
  3. 通过文本分类的方式来训练模型

2.2.3 ELMo

ELMo 模型是一个双向的动态语言模型,在给出词语的词向量时会考虑词语的上文和下文,从而解决word2vec所遇到的一词多义问题;

1. ELMo得到词向量的过程
  1. 用通用语言模型(如word2vec、fastText、glove等)去训练一个静态词向量,ELMo内部使用 CNN-BIG-LSTM 语言模型得到的词向量,得到词向量的维度为 512
  2. 使用得到的静态词向量去训练ELMo网络
  3. 下游任务中使用词向量时,加载预训练的ELMo网络参数,根据当前上下文去动态调整词向量,从而得到一个动态的词向量。
2. ELMo网络结构

在这里插入图片描述

上图展示的就是ELMo的网络结构,ELMo由两层网络组成,每层网络用于提取不同层级的特征;其中每层由两个方向相反的RNN网络构成(双向LSTM BiLSTM),分别记录上文信息和下文信息

同时,为了保证网络的稳定,ELMo从最底层词嵌入层到第一层biLSTM输出层之间还有一个残差链接。

3. 得到ELMo的词向量

对于输入的第 i 个静态词向量(因为静态词向量通过 CNN-BIG-LSTM 得到,因此维度为512),ELMo最终会出输出1个静态词向量和两个动态词向量,分别是:

  1. h(i,0):将两个输入的静态词(复制一份)向量拼接在一起,维度是512+512=1024,拼接的目的是为了和后边两个词向量的维度统一
  2. h(i,1):将ELMo第1层两个反向LSTM的输出拼接,维度是512+512=1024
  3. h(i,2):将ELMo第2层两个反向LSTM的输出拼接,维度是512+512=1024

ELMo中不同层的词向量往往的侧重点往往是不同的,输入层采用的 CNN-BIG-LSTM 词向量可以比较好编码词性信息,第 1 层 LSTM 可以比较好编码句法信息,第 2 层 LSTM 可以比较好编码单词语义信息。

ELMo 的作者提出了两种使用词向量的方法:

  1. 是直接使用最后一层 biLSTM 的输出作为词向量,即 h(i,2)
  2. 更加通用的做法,将 h(i,0) 、h(i,1) 、h(i,2) 三个输出加权融合在一起,公式如下。其中γ 是一个与任务相关的系数,允许不同的 NLP 任务缩放 ELMo 的向量,可以增加模型的灵活性。sjtask是使用 softmax 归一化的权重系数,此方法得到的 ELMo 词向量可以看成是各层向量与初始静态词向量的ensemble

在这里插入图片描述
通过下面这张图片能形象地理解使用第二种方法获取词向量的过程
在这里插入图片描述

4. ELMo 优点
  • ELMo 的各层参数实际上就是为各种有监督的下游任务准备的,因此ELMo 可以被认为是一种迁移学习(transfer learning)。
  • 通过这样的迁移策略,那些对词义消歧有需求的任务就更容易通过训练给第二隐层一个很大的权重,而对词性、句法有明显需求的任务则可能对第一隐层的参数学习到比较大的值(实验结论)。总之,这样便得到了一份”可以被下游任务定制“的特征更为丰富的词向量。
5. ELMo 缺点
  1. lstm是串行机制,训练时间长,从这一点来看ELMo 注定成为不了大哥,
  2. 相比于Transformer,lstm提取特征的能力还是不够的,我觉得未来lstm可能会被淘汰,毕竟屁股决定脑袋,时间为上!
  3. ELMo 的两个RNN网络是分别计算的,导致计算时上下文的信息不会相互通信,进而导致ELMo 得到的词向量有一定的局限性
    输出的结果只是讲两个RNN网络得到的结果拼接在一起,上下文信息并不会相互影响

参考文章:
8. 吾爱NLP(5)—词向量技术-从word2vec到ELMo
9. 一文总结词向量的计算、评估与优化
10. #深入理解# NLP 中的 Feature-based 和 Fine-tune 两种学习方法
11. 动态词向量算法—ELMo

  • 3
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
除了BOW、TF-IDF、n-gramword2vec之外,还有一些其他常用的NLP特征处理方法,下面列举几种常见的方法及其特点与优缺点: 1. GloVe(Global Vectors for Word Representation): - 特点:GloVe是一种基于全局词频统计的词向量表示方法,它将词向量表示为词之间的共现概率,通过训练得到词向量。 - 优点:GloVe通过考虑全局的词频信息,能够更好地捕捉词义和上下文之间的关系。 - 缺点:GloVe无法处理出现在训练语料中但没有明确上下文关系的单词。 2. FastText: - 特点:FastText是一种基于字符级别的词向量表示方法,它将单词表示为字符n-grams的平均值,通过训练得到词向量。 - 优点:FastText能够捕捉单词内部的字符信息,对于罕见单词和拼写错误具有较好的鲁棒性。 - 缺点:FastText在处理语义相似度任务时可能无法准确捕捉词义的细微差异。 3. ELMo(Embeddings from Language Models): - 特点:ELMo是一种基于深度双向语言模型的上下文相关词向量表示方法,通过训练得到词向量。 - 优点:ELMo能够根据上下文动态生成词向量,能够更好地处理多义词和上下文依赖性。 - 缺点:ELMo的训练和使用成本较高,需要更大的模型和计算资源。 4. Transformer模型: - 特点:Transformer是一种基于自注意力机制的模型,能够并行计算,适用于处理长距离依赖性和建模全局上下文。 - 优点:Transformer在NLP任务中取得了显著的突破,具有较强的表征学习能力。 - 缺点:Transformer模型较复杂,需要大量的训练数据和计算资源。 这些方法各有特点和适用场景,选择合适的方法取决于具体任务需求和数据特征。此外,还有一些其他方法如BERT、XLNet等也在NLP领域取得了巨大的成功。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

energy_百分百

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值