第5章文本处理方法——5.5 词向量与word2vec

1.词向量,word embedding

       又叫词嵌入,是自然语言处理中的一组语言建模和特征学习技术的统称,其中来自词汇表的单词或短语被映射到实数的向量。

2.Word2vec

      是为一群用来产生词向量的相关模型,这些模型为浅而双层的神经网络,用来训练以重新建构语言学之词文本。

(1)CBOW模型由输入层、映射层、输出层共同构成

(2)CBOW所构建的模型结构实际上是一个二叉树结构

(3)这种二叉树结构应用到Word2vec中被称之为Hierarchical Sofmax

(1)Skip-Gram模型实际上和CBOW模型正好是相反的

(2)Skip-Gram模型与CBOW一样,也是由输入层、映射层和输出层构成

(3)Skip-Gram所构建的模型结构实际上也是一个二叉树结构。

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值