统计概率模型-朴素贝叶斯

统计概率模型

1、高斯判别分析
2、朴素贝叶斯
3、隐马尔可夫模型
4、最大熵马尔科夫模型
5,条件随机场
6,马尔科夫决策过程

二、朴素贝叶斯

一、朴素贝叶斯

​ 朴素贝叶斯模型也是一个典型的生成模型,一般用来处理非数值数据。其核心假设是特征之间的条件概率是相互独立的。同样由贝叶斯公式有:

P(Y|X)=P(X|Y)P(Y)P(X)=P(Y)P(X)j=1np(xj|Y) P ( Y | X ) = P ( X | Y ) P ( Y ) P ( X ) = P ( Y ) P ( X ) ∏ j = 1 n p ( x j | Y )

下面以垃圾邮件分类介绍两类问题的朴素贝叶斯模型:

​ 垃圾邮件分类任务是一个基本文本分类任务,涉及到NLP的初步知识-文本的One-hot表示。由于机器学习模型通常是一个数学模型,而非数值型属性是不能直接处理,所以一般对邮件的特征进行编码。首先将所有的邮件中出现的词统计出来作为一个词典,并对每一个词进行编码向量化(即词序)。一封邮件对应的One-hot表示如下:

x(i)=10.0.1 x ( i ) = [ 1 0 . 0 . 1 ]

其中 i i 表示第i封邮件, x(i)j(0,1) x j ( i ) ∈ ( 0 , 1 ) j j 表示j词典中的第j个词,如果第 j j 个词在第j封邮件中出现则, x(i)j=1 x j ( i ) = 1 ,反之为 0 0 。可以看出这种表示忽略了文本的大量信息,上下文信息,词出现的次数等。

由上面的公式有,一封邮件是垃圾邮件的概率可以表示为下式:

P(Y=1|X)=P(X|Y=1)P(Y=1)P(X)

其中似然函数 P(X|Y=1) P ( X | Y = 1 ) 为在垃圾邮件下产生 X X 的条件概率,P(Y=1)为垃圾邮件的先验概率, P(X)=ΩP(X) P ( X ) = ∑ Ω P ( X ) 对于所有样本都是一致,近似忽略。

由朴素贝叶斯的条件概率独立性假设有条件概率如下:

P(x1,...xj..x5000|y=1)=P(x1|y=1)..P(xj|y=1,xj1...x1)..P(x5000|y=1,x4999...x1)=P(x1|y=1)..P(xj|y=1)..P(x5000|y=1)=j=1nP(xj|y=1) P ( x 1 , . . . x j . . x 5000 | y = 1 ) = P ( x 1 | y = 1 ) ⋅ . . ⋅ P ( x j | y = 1 , x j − 1 . . . x 1 ) ⋅ . . ⋅ P ( x 5000 | y = 1 , x 4999 . . . x 1 ) = P ( x 1 | y = 1 ) ⋅ . . ⋅ P ( x j | y = 1 ) ⋅ . . ⋅ P ( x 5000 | y = 1 ) = ∏ j = 1 n P ( x j | y = 1 )

其中 j j 表示第j个特征。所以,对于一封邮件属于哪一类的概率为都有:
P(Y=k|X(i))==j=1nP(y=k|xj) P ( Y = k | X ( i ) ) == ∏ j = 1 n P ( y = k | x j )

邮件之间独立,所以目标函数最大化所有邮件属于各自类的概率为:
maxP(Y=k|X)=i=1mP(x(i)|y(i)=k)P(y(i)=k)P(x(i))=i=1mj=1nP(x(i)j|y(i)=k)P(y(i)=k)P(x(i))maxi=1mj=1nP(x(i)j|y(i)=k)P(y(i)=k) max P ( Y = k | X ) = ∏ i = 1 m P ( x ( i ) | y ( i ) = k ) P ( y ( i ) = k ) P ( x ( i ) ) = ∏ i = 1 m ∏ j = 1 n P ( x j ( i ) | y ( i ) = k ) P ( y ( i ) = k ) P ( x ( i ) ) ≈ max ∏ i = 1 m ∏ j = 1 n P ( x j ( i ) | y ( i ) = k ) P ( y ( i ) = k )

从上式可以看出朴素贝叶斯的参数是 P(xj|y=k) P ( x j | y = k ) P(y=k),即所有邮件类别的先验,以及在某一类下出现某个词的概率。由极大似然估计参数值即为其期望。
P(y=k)=i=1m1(y(i)=k)m,k=0,1 P ( y = k ) = ∑ i = 1 m 1 ( y ( i ) = k ) m , k = 0 , 1

P(x(i)j=ajl|y(i)=k)=mi=11(x(i)j=ajl,y(i)=k)mi=11(y(i)=k),i=1..m,j=1,2..n P ( x j ( i ) = a j l | y ( i ) = k ) = ∑ i = 1 m 1 ( x j ( i ) = a j l , y ( i ) = k ) ∑ i = 1 m 1 ( y ( i ) = k ) , i = 1.. m , j = 1 , 2.. n

其中 k k 表示类别,对应垃圾邮件分类取值为0,1 i i 表示第i个特征, l l 表示特征的取值。由于垃圾邮件中采用one-hot编码,所以xi的取值为 0,1 ( 0 , 1 ) 1 1 表示出现。当以上参数确定之后,对于一封新的邮件,根据估计的参数和贝叶斯公式求得样本属于哪一类的概率。最后一封邮件属于哪一类的概率参数表示如下:

P(Y=k|X(i))=j=1nP(xj(i)=ajl|y)P(y=k)P(x)

由于one-hot编码比较特殊, P(xj=0|Y=k)+P(xj=1|Y=k)=1,ajl{0,1} P ( x j = 0 | Y = k ) + P ( x j = 1 | Y = k ) = 1 , a j l ∈ { 0 , 1 } 。由于所有类的概率加和为 1 1 ,垃圾邮件为二分类,所以邮件属于概率大于12的那一类。

为了使模型更具普适性,考虑到当某一特征没有在训练集中出现过,即某一个单词在某一类下没有出现过,或者某一单词在某一类下都出现过(意味着不出现的条件概率为0)。但不能说该单词在这一类下的条件概率为0。又或者在所有类中都未出现(即原始训练集中没有的词,而词典中有的词,即词典不依赖于训练集)。当来一个新样本时,如果不做处理,那么只要有一个分量的概率为0,由于特征之间的条件概率独立,连乘形式只要有一个为0,即整个概率为0,无意义。

拉普拉斯平滑:

P(xj=ajl|y(j)=k)=mi=11(x(i)j=ajl,y(i)=k)+1mi=11(y(i)=k)+Ω(ajl),i=1..m,j=1..n P ( x j = a j l | y ( j ) = k ) = ∑ i = 1 m 1 ( x j ( i ) = a j l , y ( i ) = k ) + 1 ∑ i = 1 m 1 ( y ( i ) = k ) + Ω ( a j l ) , i = 1.. m , j = 1.. n

其中 Ω(ajl) Ω ( a j l ) 为第 j j 个特征分量xj的可能取值数。

二、N元多项分布模型

​ 同样,上述贝叶斯模型中只考虑单词是否出现,即单词特征 xj x j 服从伯努利分布,样本 X(i) X ( i ) 服从n次独立的伯努利分布。而忽略了一个单词可能出现次数对邮件分类的影响。假设要统计某一单词出现的次数,那么有 xj{0,1,...k} x j ∈ { 0 , 1 , . . . k } 多项分布。只考虑单词是否出现的贝叶斯模型叫multi-variate Bernoulli event model,后者叫multinational event model。
同样以邮件分类问题介绍multinational event model,在之前的模型中,我们首先建立词典,并且特征向量长度为词典长度,并且从词典出发,对于邮件出现过的单词,在对应词典的位置标记为 1 1 ,反之标记为0产生一个特征向量 xj x j 。而multinational event model则从邮件出发, 表示邮件中第 j j 个单词,其值表示第j个单词在字典中出现的位置,那么 xi x i 的取值则有 |V| | V | ,其中V表示字典长度。这样一封邮件可以表示为 (x1,x2,...,xni) ( x 1 , x 2 , . . . , x n i ) ni n i 表示第 i i 封邮件的长度。这相当于掷一枚有V面的骰子n次,将观测值记录下来形成一封邮件。假设出现某一点的情况与第几次掷无关,也就是单词在邮件中出现的位置无关,而且每一次投掷都是独立的,即单词之间出现的事件是独立的。

文档的表示:

1)one-hot表示

x=x1x2x3.x3234.x50000=100.1.0 x = [ x 1 x 2 x 3 . x 3234 . x 50000 ] = [ 1 0 0 . 1 . 0 ]

2)编号表示
x=x1x2x3.x45.x203=47903468924567.23.415 x = [ x 1 x 2 x 3 . x 45 . x 203 ] = [ 4790 34689 24567 . 23 . 415 ]

可以看出两者方式的样本表示不同之处在于一个以词典维度对邮件中的词是否出现进行 01 0 − 1 编码,一个是以邮件维度对邮件中的词在词典中的编号进行编码,这就导致了两者表示的维度不同,特征服从的分布也不同。

一封邮件属于垃圾邮件的概率由贝叶斯公式有:

P(Y=1|X)=P(X|Y=1)P(Y=1)P(X) P ( Y = 1 | X ) = P ( X | Y = 1 ) P ( Y = 1 ) P ( X )

其中 P(X|Y=1) P ( X | Y = 1 ) 似然函数,在垃圾邮件下产生 X X 的条件概率,P(Y=1)为垃圾邮件的先验概率, P(X)=ΩP(X) P ( X ) = ∑ Ω P ( X ) 对于所有样本都是一致,近似忽略。

由朴素贝叶斯的条件概率独立性假设有条件概率如下:

P(x1,...xi..xnj|y=1)=P(x1|y=1)...P(xj|y=1,xj1...x1)...P(xni|y=1,x4999...x1)=P(x1|y=1)...P(xj|y=1)...P(xni|y=1)=j=1niP(xj|y=1) P ( x 1 , . . . x i . . x n j | y = 1 ) = P ( x 1 | y = 1 ) ⋅ . . . ⋅ P ( x j | y = 1 , x j − 1 . . . x 1 ) ⋅ . . . ⋅ P ( x n i | y = 1 , x 4999 . . . x 1 ) = P ( x 1 | y = 1 ) ⋅ . . . ⋅ P ( x j | y = 1 ) ⋅ . . . ⋅ P ( x n i | y = 1 ) = ∏ j = 1 n i P ( x j | y = 1 )

其中 xj{0,1,...|V|} x j ∈ { 0 , 1 , . . . | V | } 。同样最大化似然函数:
maxP(Y=k|X)=i=1mP(x(i)|y(i)=k)P(y(i)=k)P(x(i))=i=1mj=1niP(x(i)j|y(i)=k)P(y(i)=k)P(x(i))maxi=1mj=1niP(x(i)j|y(i)=k)P(y(i)=k) max P ( Y = k | X ) = ∏ i = 1 m P ( x ( i ) | y ( i ) = k ) P ( y ( i ) = k ) P ( x ( i ) ) = ∏ i = 1 m ∏ j = 1 n i P ( x j ( i ) | y ( i ) = k ) P ( y ( i ) = k ) P ( x ( i ) ) ≈ max ∏ i = 1 m ∏ j = 1 n i P ( x j ( i ) | y ( i ) = k ) P ( y ( i ) = k )

其中 ni n i 表示第 i i 封邮件的长度。所以上式中的参数有P(y=k) P(xj=av|y=k) P ( x j = a v | y = k ) 。由最大似然估计有:
P(y=k)=i=1m1(y(i)=k)m,k=0,1 P ( y = k ) = ∑ i = 1 m 1 ( y ( i ) = k ) m , k = 0 , 1

P(xj=av|y(i)=k)=mi=11(x(i)j=av,y(i)=k)mi=11(y(i)=k),av{0,1,...|V|} P ( x j = a v | y ( i ) = k ) = ∑ i = 1 m 1 ( x j ( i ) = a v , y ( i ) = k ) ∑ i = 1 m 1 ( y ( i ) = k ) , a v ∈ { 0 , 1 , . . . | V | }

其中 xj=av x j = a v j j 无关,我们需要求的是xj所有可能的取值。

最后一封邮件属于哪一类的概率参数表示如下:

P(Y=k|X)=j=1niP(xj=av|y)P(y=k)P(x) P ( Y = k | X ) = ∏ j = 1 n i P ( x j = a v | y ) P ( y = k ) P ( x )

其中 xj=av x j = a v 表示邮件第 j j 个词在词典中的编号。

one-hot表示和编号表示:

​ 两种表示最大的差别在于包含的语义信息,one-hot表示信息不够丰富,只有01,所以需要高的维度,而编号表示信息相对丰富,维度低。然而on-hot表示是可以直接度量两个样本之间的相似性的( 01 0 − 1 表示是否存在,有语义意义的),而编号表示则不能直接度量两个样本之间的相似性(在词典中的编号是无语义的),但是可以把编号表示放回到集合中去度量两个样本的重合度。所以编号表示可以看作是one-hot的一种低维表示。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值