A Neural Probabilistic Language Model(文献阅读笔记)

NNLM通过引入词向量解决了N-gram的维度灾难和无法捕捉词间关系的问题,采用多层感知器构造语言模型,用词向量表示词的连续空间,通过前n个词预测下一个词,模型包含映射、隐藏和输出三层,训练目标是最大化似然函数并使用SGD更新参数。
摘要由CSDN通过智能技术生成

这篇NNLM使训练得到的模型比传统的统计语言模型使用n-gram能建模更远的关系,并且考虑到了词与词之间的相似性,一些相似的词获得了自然的平滑。前者是因为神经网络的结果使得,后者是因为使用了词向量。

其本身是语言模型,为了验证或者说是预测一句话最可能的表达,在预测的过程中产生word embedding 矩阵,在输入层中将词映射为一个m列的向量,也即词的向量表示,NPLM模型结构一共分为3层,输入 映射-隐含-输出

 


N-gram

N-gram对词的表示是one-hot的离散表示,存在问题:

  •  参数空间随着N成指数增长,当词典数量较大时存在维度灾难问题;
  •  无法理解词与词之间的内在联系,无法建模出多个相似词的关系。

通过引入词向量,从离散表示到连续表示,可以解决上面的问题:

  •  one-hot向量维度大小与词典成正比,稠密向量大小是固定值(50~300);
  •  稠密向量各维度值是实数,不限于0和1,可以表示连续空间,可以通过计算距离度量词与词之间的相似度。类似的思想还有IR中的向量空
  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值