python自然语言处理—Word2vec模型之 skip-gram 与 cbow 比较

本文对比分析了word2vec模型中的skip-gram和cbow两种方法。skip-gram时间复杂度为O(KV),每个词作为中心词时会受周围词K次影响,适合生僻词训练;cbow时间复杂度为O(V),对所有词进行平均调整,效率更高但可能忽视生僻词。
摘要由CSDN通过智能技术生成

                                      Word2vec模型之 skip-gram 与 cbow 比较

 

cbow 和 skip-gram 都是在 word2vec 中用于将文本进行向量表示的实现方法,具体的算法可查看 Word2vec模型之Skip-gram 和 Word2vec模型之 CBOW

一、计算复杂度O

    1、cbow O(V)

        在 cbow 方法中,是用周围词预测中心词,从而利用中心词的预测结果情况,使用GradientDesent方法(梯度下降方法),不断的去调整周围词的向量。当训练完成之后,每个词都会作为中心词,把周围词的词向量进行了调整,这样也就获得了整个文本里面所有词的词向量。

        要注意的是, cbow 的对周围词的调整是统一的:求出的 gradient 的值会同样的作用到每个周围词的词向量当中去。

        可以看到,cbow 预测行为的次数跟整个文本的词数几乎是相等的(每次预测行为才

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值