统计语言模型

统计语言模型, Statistical Language Model.

1. 简介

自然语言具有上下文相关的特性, 所以统计语言模型就是为这种相关特性建立语言模型. 它是今天所有自然语言处理的基础.
判断一个句子是否合理, 就用概率来衡量.
一个句子就是一些词语的序列, 假定用S表示, S=w1,w2,...,wn , 那么S是一个通顺的句子的概率 P(S)=P(w1,w2,...,wn) .
利用条件概率的公式, 展开得

P(S)=P(w1,w2,...,wn)=P(w1)P(w2|w1)P(w3|w1,w2)...P(wn|w1,w2,...,wn1)(1)

其中 P(w1) 表示第一个词出现的概率, P(w2|w1) 表示w_1已经出现的前提下, w_2**挨着它**出现的概率, 以此类推.
前两个比较好算, 但第三个就涉及到了三个变量 w1,w2,w3 , 再往后就更难算了.

2.马尔可夫假设

假设一个词 wi 在某个位置出现的概率只与它前面的一个词 wi1 有关, 这就是马尔可夫假设.
基于此假设, 式(1)就可以改写为

P(S)=P(w1,w2,...,wn)=P(w1)P(w2|w1)P(w3|w2)...P(wn|wn1)(2)

3. n-gram model

式(2)对应的统计语言模型就是bi-gram model, 二元模型.
类似地, 假设一个词 wi 在某个位置出现的概率只与它前面的两个词 wi1,wi2 有关, 那么就得到了三元模型.

4.词袋模型

词袋, Bag of words.
对于一个文本,忽略其词法, 语法, 语义, 仅将其看做是一个词的集合, 文本中每个词的出现都是独立的, 那么就得到了词袋模型.
一个语料库由若干文本组成, 先计算出语料库的词袋, 然后就可以用词向量来表示每个文本.

文章A: 她很漂亮, 我都想去搭讪了.
文章B: 我去上学了.
词袋为{她 ,很 , 漂亮 ,我 ,都, 想, 去, 搭讪, 了,上学}

文章漂亮搭讪上学
文章A1111111110
文章B0001001011

5.词向量

对词典D中的任意词w, 都可以用一个固定长度的实值向量 v(w)Rm 来描述. 我们称 v(w) 是w的词向量, 维度为m.

5.1 one-hot

词袋模型中的文章(或 句子)向量可以看做所包含的词语的词向量加和, 即 wv(w) .
其中每个词向量都有one-hot的特征, 即某一分量不为0 , 其他分量全为0.
one-hot有两个缺陷:

  1. 对于同义词等, one-hot 不能够表示这种相似关系.
  2. 词袋模型模型越大, 文章向量越稀疏, 这种维度的激增会对计算提出更高的要求.

5.2 distributed representation

对词典中的每一个词语都用固定长度的向量来表示, 不同于one-hot, 它形如
v(w)={0.054,0.22,0.12,0.215,0.17093,...} .
在word2vec中, 这个向量的维度是自定义的, 默认是100维.

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值