skip-gram的理解

推荐一篇文章: https://www.jianshu.com/p/da235893e4a5

Word2Vec模型中,主要有Skip-Gram和CBOW两种模型,从直观上理解,Skip-Gram是给定input word来预测上下文。而CBOW是给定上下文,来预测input word。本篇文章仅讲解Skip-Gram模型。

对于skip-gram,它的训练方式大致是这样的:输入的是一个词的one-hot编码,这个编码是相当稀疏的,所以当这个one-hot与权重w相乘之后,就会有一个类似于lookup表的作用(降维),然后用它去训练神经网络,隐层的输出就是各个词的词向量,然后在输出层用softmax函数来产生一个概率分布,也就是该词的窗口C内的上下文的词各种取值的概率,取概率最大的那个词作为当前词。

这个skip-gram和cbow的有用的就在于隐层输出的词向量,因为我们要的就是词向量,而最后的输出层的用处是为了训练调参,当误差最小的时候,隐层的输出就是表示的最好的词向量

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值