Word2Vec数学模型

N-gram模型

N-gram模型假设一个词出现的概率只与它前面固定数目的词相关。一般而言,n的选取需要同时考虑计算复杂度和模型效果两个因素。
n的选择

神经网络语言模型

(1) 神经概率语言模型中假定了”相似的”词对应的词向量也是相似的。
(2) 概率函数关于词向量是光滑的,即词向量中的一个小变化对概率的影响也只是一个小变化。

模型

1.基于词向量的模型自带平滑化功能。
2.词向量是Distributed Representation(向量中有大量非零向量,词的信息分布到各个分量中),通过训练将某种语言中的每一个词映射为一个固定长度的向量,所有的向量构成一个词向量空间,每个向量可视为该空间中的一个点,根据词之间”距离”判断它们的相似性。

LSA和LDA都可以用来估计词向量。

CBOW(Continuous Bag-of-Words Model)模型
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值