CBOW如何将one-hot向量转换成低维词向量

本文介绍了CBOW模型的工作原理,通过一个简单的例子展示了如何利用CBOW从上下文预测中心词,详细阐述了训练过程,包括上下文向量的生成、得分向量的计算、损失函数的定义以及使用梯度下降优化词向量。通过训练,最终得到的look up table可以用于快速获取单词的词向量。
摘要由CSDN通过智能技术生成

具体例子

假设我们现在的Corpus是这一个简单的只有四个单词的document:
{I drink coffee everyday}
我们选coffee作为中心词,window size设为2
也就是说,我们要根据单词"I","drink"和"everyday"来预测一个单词,并且我们希望这个单词是coffee。

假设我们此时得到的概率分布已经达到了设定的迭代次数,那么现在我们训练出来的look up table应该为矩阵W。即,任何一个单词的one-hot表示乘以这个矩阵都将得到自己的word embedding。

有了上面的介绍,我们来看看CBOW具体的训练步骤

根据指定窗口的上下文预测或生成它的中心词。

比如,根据{“the”,“cat”,“over”,“the”,“puddle”}预测或生成单词jumped。

首先,模型已知的参数,我们用one-hot向量表示整个上下文,记为  。同时,因为CBOW模型仅预测一个单词,所以输出是一个中心词的one-hot表示,记为  。

接着,模型未知的参数,我们定义 

评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值