Word2Vector之详解Skip-gram

本文详细介绍了Word2Vector中的Skip-gram模型,该模型旨在通过当前词预测上下文词的概率。网络结构包括输入层、映射层和输出层,其中隐藏层权重矩阵即为词向量。训练过程涉及词汇对提取和Softmax激活函数,词向量的物理意义在于,相似上下文的词将得到相似的词向量。
摘要由CSDN通过智能技术生成

​ 谷歌2013年提出的word2vector是目前最常用的词嵌入模型之一。Word2Vector实际上是一种浅层的神经网络模型,它有两种网络结构,分别为CBOW(Continues Bag of Words)和Skip-gram,这篇文章主要是介绍Skip-gram。

​ Skip-gram的主要目标是根据当前词来预测上下文中各个词的生成概率。比如说对于训练后的网络,给定一个输入“soviet”,输出概率高的单词应该是像"Union"或者“Russia”而不是像“watermelon”或“kangaroo”之类的单词。

网络结构

Skip-gram可以表示为由输入层(Input)、映射层(Projection)和输出层(Output)组成的神经网络。
神经网络的层次

  • 输入的表示:输入层中每个词由独热编码方式表示,即所有词均表示成一个N维向量,其中N为词汇表中单词的总数。在向量中,每个词都将与之对应的维度置为1,其余维度的值均为0。

  • 网络中传播的前向过程:输出层向量的值可以通过隐含层向量(K维),以及连接隐藏层和输出层之间的KxN维权重矩阵计算得到。输出层也是一个N维向量,每维与词汇表中的一个单词相对应。最后对输出层向量应用Softmax激活函数,可以计算每一个单词的生成概率。Softmax函数定义为:

    P ( y = w n ∣ x ) = e x n ∑ k = 1 N e x k P(y=w_n|x) = \frac {e^{x_n}}{\sum _{k=1} ^{N}{e^{x_k}}} P(y=w

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值