Word2Vec(一)

1. What?
将词表示成数学向量,因此属于表示学习范畴,应用于自然语言处理,很多自然语言处理的模型都改用词向量表示,作为很多文本的输入表示。
2.Where?
介绍word embeding前需要先说明语言模型,最早语言模型通过条件概率表示句子的生成概率,之后又有N-gram模型,为了表示每个词用one-hot的方案,但是该方案维数太大且不易于比较相似度或语义表示,因此将概率语言模型与神经网络结合形成了NNLM模型,最早的是Bengio学习。
3.How?
Google的Word2Vec有两种模型CBOW预测当前词出现概率,Skip-gram逆转CBOW因果,利用当前词预测上下文。

暂时写这么多额。。。。。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值