Word2vec学习(2020-08-19)

Word2vec学习

一、关于论文

  1. 论文文献2篇
    1)《Efficient Estimation of Word Representations in Vector Space》
    2)《Distributed Representations of Words and Phrases and their Compositionality》
  2. 论文内容
    第一篇主要引入了NNLM、RNNLM、CBOW、Skip-gram的概念;
    第二篇主要详细介绍了关于Skip-gram模型,以及在此模型下,提升训练速度的三种优化方法,分别是 Hierarchical Softmax(使用Huffman Tree)、Negative Sampling、Subsampling of Frequent Words。

二、关于学习参考

  1. 参考了台大《应用深度学习》课程by陈蕴侬,b站:https://www.bilibili.com/video/BV19g4y1b7vx?p=20
  2. 参考了b站博主“明静忠”的视频
  3. 参考了NLP-LOVE(何晗《自然语言处理入门》笔记的Github博主)的这篇文:http://mantchs.com/2019/08/22/NLP/Word%20Embeddings/
  4. 有时间可以再看看这篇,https://www.cnblogs.com/iloveai/p/word2vec.html

三、原理解析

  • 1、Word Embedding(什么是词嵌入)
    自然语言是一套用来表达含义的复杂系统。在这套系统中,词是表义的基本单元。词向量是用来表示词的向量,也可被认为是词的特征向量或表征。把词映射为实数域向量的技术也叫词嵌入(word embedding)

    早期是基于规则的方法进行转化,而现代的方法是基于统计机器学习的方法。数据决定了机器学习的上限,而算法只是尽可能的逼近这个上限,在本文中数据指的是文本表示,文本表示分为离散表示分布式表示

  • 2、离散表示
    2.1 One-hot表示
    One-hot表示文本信息的缺点:
    1)随着语料库的增加,数据特征的维度会越来越大,产生一个维度很高,又很稀疏的矩阵。
    2)这种表示方法的分词顺循和在句子中的顺序是无关的,不能保留词与词之间的关系信息。

    2.2 词带模型(Bag-of-words model)
    词袋模型,像是句子或是文件这样的文字可以用一个袋子装着这些词的方式表现,这种表现方式不考虑文法以及词的顺序。
    文档的向量表示可以直接将各词的词向量表示加和。例如:

    • John likes to watch movies. Mary likes too.

    • John also likes to watch football games.
      以上两句可以构建一个词典:

    • {“John”: 1, “likes”: 2, “to”: 3, “watch”: 4, “movies”: 5, “also”: 6, “football”: 7, “games”: 8, “Mary”: 9, “too”: 10}
      那么第一句的向量表示为:[1, 2, 1, 1, 1, 0, 0, 0, 1, 1],其中的2表示likes在该句中出现了2次,以此类推。

    词袋模型同样有以下缺点:
    1)词向量化后,词与词之间是有大小关系的,不一定词出现的越多,权重越大。
    2)词与词之间是没有顺序关系的。

    2.3 TF-IDF
    TF-IDF(term frequency-inverse document frequency)是一种用于信息检索与数据挖掘的常用加权技术。TF意思是词频,IDF意思是逆文本频率指数。

    字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降。一个词语在一篇文章中出现的次数越多,同时在所有文档中出现次数越少,越能够代表该文章。
    在这里插入图片描述
    分母之所以加1,是为了避免分母为0。
    那么,TF - IDF = TF * IDF,从这个公式可以看出,当w在文档中出现的次数增大时,而TF-IDF的值等于TF * IDF的值是减小的,所以也就体现了以上所说的了。
    缺点:还是没有把词和词的关系顺序表达出来。

    2.4 n-gram模型
    n-gram模型为了保持词的顺序,做了一个滑窗的操作,这里的n表示的就是滑窗的大小,例如2-gram模型,就是把2个词当作一组来处理。把这些生成一个字典,按照词袋模型的方式进行编码得到结果。改模型考虑了词的顺序。

    • John likes to watch movies. Mary likes too.

    • John also likes to watch football games.
      以上两句可以构造一个字典:

    • {"John likes”: 1, "likes to”: 2, "to watch”: 3, "watch movies”: 4, "Mary likes”: 5, "likes too”: 6, "John also”: 7, "also likes”: 8, “watch football”: 9, “football games”: 10}
      那么第一句的向量表示为:[1, 1, 1, 1, 1, 1, 0, 0, 0, 0],其中第一个1表示John likes在该句出现了1次。以此类推。
      缺点:随着n的大小增加,词表会成指数型膨胀,会越来越大。

    2.5 离散表示存在的问题
    由于存在以下的问题,对于一般的NLP问题,是可以使用离散表示文本信息来解决问题的,但对于要求精度较高的场景就不适合了。
    1)无法衡量词向量之间的关系
    2)词表的维度随着语料库的增长而膨胀
    3)n-gram词序列随语料库增长呈指数型膨胀,更加快
    4)离散数据来表示文本会带来数据稀疏问题,导致丢失信息。

  • 3、分布式表示
    科学家为了提高模型精度,又发明了分布式的表示文本信息的方法。用一个词附近的词来表示该词,这是现代统计自然语言处理中最有创见的想法之一。当初科学家发明这种方法是基于人的语言表达,认为一个词是由这个词的周边词汇一起来构成精确的语义信息。
    3.1 共现矩阵
    共现矩阵顾名思义就是共同出现的意思,词文档的共现矩阵主要用于发现主题(topic),用于主题模型,如LSA。
    局域窗中的word-word共现矩阵可以挖掘语法和语义信息,例如:

    • I like deep learning.
    • I like NLP.
    • I enjoy flying.

    以上三句话,设置滑窗为2,可以得到一个词典:

    • {“I like”,“like deep”,“deep learning”,“like NLP”,“I enjoy”,“enjoy flying”,“I like”}
      我们可以得到一个共现矩阵(对称矩阵):
      在这里插入图片描述

    中间的每个格子表示的是行和列组成的词组在词典中共同出现的次数,也就体现了共现的特性。

    存在的问题:
    1)向量维数随着词典大小线性增长
    2)存储整个词典的空间消耗非常大
    3)一些模型如文本分类模型会面临稀疏性问题
    4)模型会欠稳定,每新增一份语料进来,稳定性就会变化

  • 4、神经网络表示
    4.1 NNLM
    NNLM(Nueral Network Language Model),神经网络语言模型是03年bengio提出来的,通过训练得到中间产物—词向量矩阵,这就是我们要得到的文本表示向量矩阵。

    NNLM说的是定义一个前向窗口大小,其实和上面提到的窗口是一个意思。把这个窗口中最后一个词当作y,把之前的词当作输入x,通俗来说就是预测这个窗口的最后一个词出现的概率的模型。
    在这里插入图片描述
    以下是NNLM的网络结构图:
    在这里插入图片描述
    1)input层是一个前向词的输入,是经过one-hot编码的词向量表示形式, 具有V1的矩阵。
    2)C矩阵是投影矩阵,也就是稠密词向量表示,在神经网络中是w参数矩 阵,该矩阵的大小为D
    V,正好与input层进行全连接(相乘)得到D*1的矩阵,采 用线性映射将one-hot表示投影到稠密D维表示。
    在这里插入图片描述
    - output层(softmax)自然是前向窗需要预测的词
    - 通过BP+SGD得到最优的C投影矩阵,这就是NNLM的中间产物,也是我们所求的文本表示矩阵,通过NNLM将稀疏矩阵投影到稠密向量矩阵中。

    4.2 Word2Vec
    谷歌2013年由Mikolov提出的Word2Vec是目前最常用的词嵌入模型之一。Word2Vec实际上一种浅层的神经网络,它有两种网络结构,分别是CBOW(Continues Bag of Words)连续词袋和Skip-gram。Word2Vec和上面的NNLM很类似,但比NNLM简单。

    1. CBOW
      CBOW获得中间词两边的上下文,然后用周围的词去预测中间的词,把中间词当作y,把窗口中的其它词当作x输入,x输入是经过one-hot编码过的,然后通过一个隐层进行求和操作,最后通过激活函数softmax,可以计算出每个单词的生成概率,接下来的任务就是训练神经网络的权重,使得语料库中所有单词的整体生成概率最大化,而求得的权重矩阵就是文本表示词向量的结果。
      在这里插入图片描述

    2. Skip-gram
      Skip-gram是通过当前词来预测窗口中上下文词出现的概率模型,把当前词当作x,把窗口中其它词当作y,依然是通过一个隐层接一个Softmax激活函数来预测其它词的概率。
      在这里插入图片描述

    3. 优化方法
      1)层次Softmax(Hierarchical Softmax):至此还没有结束,因为如果单单只是接一个softmax激活函数,计算量还是很大的,有多少次就会有多少维的权重matrix,所以这里就提出层次Softmax(Hierarchical Softmax),使用Huffman Tree来编码输出层的词典,相当于平铺到各个叶子节点上,瞬间把维度降低到了树的深度,可以看如下图所示。这棵Tree吧出现频率高的词放到靠近根结点的叶子节点处,每一次只要做二分类计算,计算路径上所有非叶子节点词向量的贡献即可。

      2)霍夫曼树(Huffman Tree):给定N个权值作为N个叶子节点,构造一棵二叉树,若该树的带权路径长度达到最小,称这样的二叉树为最有二叉树,也称霍夫曼树。
      在这里插入图片描述
      3)负采样(Negative Sampling):这种优化方式做的事情是,在正确单词以外的负样本中进行采样,最终目的是为了减少负样本的数量,达到减少计算量效果。将词典中的每一个词对应一条线段,所有词组成了[0, 1]间的剖分,如下图所示,然后每次随机生成一个[1, M-1]间的整数,看落在哪个词对应的部分就选择哪个词,最后会得到一个负样本集合。
      在这里插入图片描述
      Word2Vec存在的问题
      1)对每个local context window单独训练,没有利用包含在global co-corrence矩阵中的统计信息。
      2)对多义词无法很好的表示和处理,因为使用了唯一的词向量

    4.3 sense2vec
    word2vec模型的问题在于词语的多义性。比如duck这个单词常见的含义有水禽或者下蹲,但对于 word2vec 模型来说,它倾向于将所有概念做归一化平滑处理,得到一个最终的表现形式。

  • 5、词嵌入为何不采用one-hot向量
    虽然one-hot词向量构造起来很容易,但通常并不是一个好选择。一个主要原因,one-hot词向量无法准确表达不同词之间的相似度,如我们常常使用的余弦相似度。由于任何两个不同词的one-hot向量的余弦相似度都为0,多个不同词之间的相似度难以通过one-hot向量准确体现。

    Word2Vec工具的提出正是为了解决上面这个问题。它将每个词表示成一个定长的向量,并使得这些向量能较好地表达不同词之间的相似和类比关系。
    在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值