word2vec模型评估_阅读经典-word2vec

前言:

说到稠密的word embedding ,最早的模型可追溯到2003年大佬Yoshua Bengio的NNLM(A Neural probabilistic language model)。然而受限于当时的计算机硬件,NNLM要在语料库上完成预训练需要消耗的时间和空间是一般研究者不能接受的,因为相对于要训练的trillions of words,NNLM的模型结构实在是“太大”!然而在今天看来只有两层神经网络结构的东西实在是和大沾不上边儿。

e2cb937c46838903af1e6ff934241964.png
图1 . NNLM模型结构

受限于计算机硬件的发展,这种神经语言模型一直没发展起来。而2013年是一个转折点,Mikolov发表了word2vec(Efficient Estimation of Word Representation in Vector Space)。简化了NNLM的结构,引爆了词向量技术。本文要讨论的就是Mikolov的相关工作:

    • Efficient Estimation of Word Representation in Vector Space
    • Distributed Representation of Words and Phrases and their Compositionality
    • Bag of Tricks for Efficient Text Classification

一、word2vec的模型结构

  1. 提出

针对NNLM存在的问题,参数量太大训练太慢,作出了一些调整:

(1)将NNLM中的拼接输入向量改成取平均

(2)移除了非线性的隐层

(3)使用上下文,而不像NNLM只用上文

2. 模型

两个子模型:CBOW和SKIP-GRAM

b11ee0c9a5cf962b14041589337dcd9e.png
图2. 子模型

CBOW的前向传播过程:初始化权重矩阵->正向传播->梯度下降调整参数->模型训练完成,去除输出层

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值