"A Neural Probabilistic Language Model"--论文模型解释

目录

1.神经概率语言模型

2.模型的表示

3.模型的求解


1.神经概率语言模型

One-hot方式的word表示能够简单的将词进行向量化表示,但是随着词汇表(Vocabulary)的增大表示一个词的向量成为一个高维的超稀疏向量(只有一个维度为1,其他维值都为0)。这样的词表示方法不仅占用大量内存,而且不能对词之间的想似关系进行度量。分布式表示方法能够应对这样的维度灾难(curse of dimensionality),不仅可以将词映射到低维的词向量空间,而且向量间的夹角代表了词之间的相似性。论文中所提到的模型形式化如下公式,在模型中  \hat P(w_t|w^{t-1}_{1})=\hat P(w_t|w_{t-1},w_{t-2},...,w_1)

Model:f(w_t,w_{t-1},...,w_{t-n+1})=\hat P(w_t|w^{t-1}_{1})

Constraint(1): \sum_{i=1}^{|V|}f(i,w_{t-1},...,w_{t-n+1})=1

Constraint(2):f>0

模型表示求在w^{t-1}_1的上下文(context)情况下w_t出现

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值