word2vec中的CBOW模型

模型结构

CBOW模型,中文译为“连续词袋模型”,完成的任务是给定中心词  的一定邻域半径(比如半径为2,通常成为windows,窗口,这里窗口的大小为5)内的单词 ,预测输出单词为该中心词  的概率,由于没有考虑词之间的顺序,所以称为词袋模型。论文中给出的CBOW模型的结构如下图:



在上面的结构示意图中,符号w(t-1),w(t-2),w(t+1),w(t+2) 表示输入的单词,实际是一个one-hot的vector,通过构建词典,建立单词索引可以很容易实现,向量的维度和词典中单词数目相同,只有一个维度的值为1,该维度对应该单词在词典索引中的位置,其余维度的值为0。其中的PROJECTION层是通过查表得到的,首先初始化一个words vector矩阵W,W是一个二维的矩阵,行数等于构建的词典中的单词的数目,依赖具体语料库大小等因素,列数是一个超参数,人为设定,一般为100;论文中给出的结构图太简单,我自己画了一个,如下:


输入是中心词  的上下文单词,都是one-hot编码的,我假设了widows size 是5,所以有4个one-hot编码向量的输入 。设输入层矩阵为,大小为 ,其中  是词典的大小 , 是词向量的维度,  向量则是的一行,lookup的过程即是如下的操作:


将one-hot编码的向量  和  相乘,就是取出了输入矩阵  中  对应的一行,该行的行号是单词  在词典中的索引号。经过输入层操作得到的向量是一个稠密的向量(dense),假设为  。输出层的矩阵设为 ,输出矩阵的大小,则输出向量为


 的大小为 ,每一个维度的值可以理解为在当前上下文环境下,输出的中心单词是字典每一个单词的logit概率,做softmax后,就是每一个单词的概率了。以上描述的也是CBOW模型一次前向传播的过程。

公式详解每一步操作

1、查表(lookup)  从单词到向量

进行查表即是完成下列操作:


这是一个(n x 1) 的矩阵和一个(n x d)的矩阵之间的矩阵乘法,得到的是一个(1 x d)的向量 ,就是一个向量。这个 向量就是单词  对应的词向量。同理有:





2、求和平均(sum and average)

上一步通过lookup,得出了中心词  上下文单词  对应的词向量 ,因为我们要根据这些词向量算出单词  出现的概率,所以需要对这4个词向量做求和,然后取平均值,作为PROJECTION层的输出,即


这里做一下说明,论文中给出的求和后取平均值,可以看成是四个上下文  词向量对生成中心词  的贡献是相同的,没有考虑单词的顺序问题(CBOW名称的来源)。

3、输出(output)

这一步需要计算的是由  生成  的概率。即计算:


由于经过lookup层后,上下文单词  被综合表示成  ,所以我们需要计算由 生成中心单词  的概率是多大。所以


由于给定上下文时,不止是只能生成中心词,还能生成整个词典中的任何一个单词,只是生成的概率没有中心词概率大,我们用一个通用的公式表示如下:



表示给定上下文单词   时,生成中心单词  的概率。这个值是通过对整个字典中的单词做softmax后得到的,具体的计算公式如下:


其中,表示词典的大小,  表示上下文单词的向量。这里不好理解的是 。在上一步的查表中,可以得知向量  就是上下文单词的词向量,因为  就是通过一个one-hot编码的向量和词向量矩阵进行矩阵乘法得到的。 就是输出层矩阵  中的一行。在李沐的“动手学深度学习”教程中,将  和  看成是一个单词的两套词向量,即  是同一个单词  的两个词向量,对应到CBOW的结果图中,就是一个是输出矩阵中的行,一个输入矩阵中的行。我个人认为这个解释不是太有力,我更倾向于  是一个打分权重,这个打分权重可以理解为在当前上下文输入下,输出单词为  的得分是多少,类似于logistic regression中的权重系数。

模型的损失函数及优化

在讲解CBOW模型的损失函数和参数优化前,可以先看看训练数据是什么样子的。假设训练数据是一段文本,长度为T,则在CBOW模型下,训练样本的格式如下:


训练数据是从长度为T的文本中抽取的,可以抽取很多个上式表达的训练数据。有训练数据,同时我们又建立了概率模型,那么我们就可以定义一个似然函数,使得训练集中样本的似然概率最大。

生成这一段文本的似然概率如下:


其中, 不存在,会用特殊的占位符替换。上式就是CBOW的目标函数,为了学习到合适的词向量,需要最大化上述似然函数的值,这等价于最小化如下损失函数的值:

 

将具体的概率公式替换。可得


这个cost fucntion是关于的函数,对上式求关于的倒数,使用随即梯度下降方法,多次迭代,既可以找到最优值。



  • 9
    点赞
  • 43
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
Word2vec CBOW模型的代码可以在这篇文本处理算法汇总文章找到。具体的代码如下所示: ``` from keras.models import Sequential from keras.layers import Embedding, Dense, Merge # 定义CBOW模型 model = Sequential() model.add(Embedding(nb_word, word_size, name='word2vec')) model.add(Dense(1, activation='sigmoid')) # 编译模型 model.compile(loss='binary_crossentropy', optimizer='adam') # 训练模型 model.fit(x_train, y_train, epochs=10, batch_size=32) ``` 其,`nb_word`表示词汇表的大小,`word_size`表示词向量的维度。CBOW模型的主要思想是根据上下文预测心词,通过优化词向量来提高预测准确性。 这里使用了Keras库来实现CBOW模型,第一层是一个Embedding层,用于将单词索引转换为词向量。然后通过一个全连接层(Dense)进行二分类预测。 请注意,这只是CBOW模型的代码示例,具体实现还需要根据你的数据和任务进行适当的调整和扩展。 参考资料: Word2vecCBOW模型的keras代码 Embedding层的文档:https://keras.io/zh/layers/embeddings/<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [Word2vecCBOW模型的keras代码详解](https://blog.csdn.net/weixin_40699243/article/details/109271365)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值