Python

本文深入探讨了Word2Vec中的两种关键模型——CBOW和Skip-Gram。CBOW模型采用上下文词来预测目标词,而Skip-Gram则是反过来,用目标词预测上下文词。NCE技术在训练过程中用于减少计算量。CBOW是‘一个老师教多个学生’,而Skip-Gram则是‘一个学生面对多个老师’的训练模式。这两种模型都致力于将文本转化为向量表示,为后续的自然语言处理任务提供基础。
摘要由CSDN通过智能技术生成

CBOW多预测少
Skip-Gram少预测多
在这里插入图片描述
NCE技术,在计算loss和反向传播的时候只考虑部分的负样本, 节约计算量

在CBOW,我们的X数据每行有前后N个词语,Y中只有1个词; 而在Skip-Gram,X数据只有1个词,Y也只有1个词。

skip-gram里面,每个词在作为中心词的时候,实际上是 1个学生 VS K个老师,K个老师(周围词)都会对学生(中心词)进行“专业”的训练
cbow是 1个老师 VS K个学生,K个学生(周围词)都会从老师(中心词)那里学习知识,但是老师(中心词)是一视同仁的,教给大家的一样的知识

cbow和skip-gram都是在word2vec中用于将文本进行向量表示

句向量
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值