【深度学习】Word2Vec知识点——概述01

 1.Word2Vec词向量 

          Word2Vec是使用浅层神经网络学习单词嵌入的最流行技术之一。

          Word2Vec从大量文本语料中以无监督的方式学习语义知识的一种模型,它被大量地用在自然语言处理(NLP)中。

          Word2Vec 是一个将单词转换成向量形式的工具,Word2Vec就是通过学习文本用词向量的方式表征词的语义信息,即通过一个嵌入空间使得语义上相似的单词在该空间内距离很近。

          Word2Vec计算的是余弦值 (cosine),距离范围为0–1之间,值越大代表两个词关联度越高。

          Word2Vec主要包括两个模型: CBOW和skip-gram. 

                CBOW和skip-gram.都是利用人工神经网络作为它们的分类算法。起初每个单词都是一个随机 N 维向量。经过训练之后,该算法利用 CBOW 或者 Skip-gram 的方法获得了每个单词的最优向量。训练过程如下图所示:

                                               

      CBOW的目标是根据上下文来预测当前词语的概率,且上下文所有的词对当前词出现概率的影响的权重是一样的,因此叫continuous bag-of-words模型。如在袋子中取词,取出数量足够的词就可以了,至于取出的先后顺序是无关紧要的。

     Skip-gram的目标刚好相反:根据当前词语来预测上下文的概率

2.Word2Vec高效训练的方法:negative sampling 和 hierarchical softmax;

        negative sampling (负采样)可以优化目标,即对每个训练样本的训练只会更新一小部分的模型权重,从而降低计算负担,而且还可以提高训练的词向量的质量

        通常来说,我们在训练一个神经网络的时候,意味着要输入训练样本并且不断调整神经元的权重,从而不断提高对目标的准确预测。每当神经网络经过一个训练样本的训练,它的权重就会进行一次调整。负采样(negative sampling)解决了不断调整神经元权重的问题,它是用来提高训练速度并且改善所得到词向量的质量的一种方法。不同于原本每个训练样本更新所有的权重,负采样每次让一个训练样本仅仅更新一小部分的权重,这样就会降低梯度下降过程中的计算量。

        如果想仔细查看并学习负采样和hierarchical softmax的知识看这2篇博客https://www.cnblogs.com/pinard/p/7249903.html     https://www.cnblogs.com/pinard/p/7243513.html

        hierarchical softmax(分层Softmax)该方法主要有2个改进点:

            (1) 对于从输入层到隐藏层的映射,没有采取神经网络的线性变换加激活函数的方法,而是采用简单的对所有输入词向量求和并取平均的方法

                        比如输入的是三个4维词向量:(1,2,3,4),(9,6,11,8),(5,10,7,12)(1,2,3,4),(9,6,11,8),(5,10,7,12),那么我们word2vec映射后的词向量就是(5,6,7,8)。这里是从多个词向量变成了一个词向量。

            (2)从隐藏层到输出的softmax层对其计算量进行改进。为了避免要计算所有词的softmax概率,word2vec采样了霍夫曼树来代替从隐藏层到输出softmax层的映射。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值