language model

Ⅰ Language Model: A Survey of the State-of-the-Art Technology

The goal of language modelling is to estimate the probability distribution of various linguistic units, e.g., words, sentences etc.
参考Language Model: A Survey of the State-of-the-Art Technology
这个paper或者说blog从count based model 和 continuous space两方面阐述language model。

1.1 count based model

count based的model比如n-gram,基于n-order Markov assumption。Wn 只和preceding 的n个words有关。于是condition probability为:
在这里插入图片描述
但是会出现四个问题:
1.data sparsity: 没见过的sentence 的probability 是0 (可以通过soomth等方法解决)
2.the curse of dimension: parameters are too large ∣ V ∣ n |V|^{n} Vn
3.exact pattern:’’ he cat is walking in the bedroom’’ and '‘a dog was running in the room’'虽然syntactically and semantically similar但是在这个very different
4. dependency beyond the widow is ignored:

但是count-based modeling并没有model 出true conditional probability。

1.2 Continuous-space language models

NNML:word embedding的始祖,address 了 data sparsity 但是为什么呢? ,而RNN打破limited context

1.2.1 feed-forward neural network based LM

Y Bengio A Neural Probabilistic Language Model

在这里插入图片描述

优点: 解决了data-sparsity 和 the curse of dimension 但是why,为什么解决了data-sparsity的问题
缺点: training 和 testing 的时间过长 就有了好多speed-up的 techniques。

1.2.2 Recurrent neural network RNN

在这里插入图片描述

  1. 当用FNN时,首先要决定context size,尽管fixed context size 很effective 但context size 这个parameter 很难determine
  2. 由于RNN是dynamic system,input 经过network的传递output呈现指数级的爆炸blow up.
  3. 在统计LM的应用中,RNN和FNN之间的比较通常有利于RNN。原因将在后来的advanced Models中变得清晰。

1.2.3 Advanced Models

讲了其他基于character-level ,sentence-level等的model,没太get到。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值