最大熵模型的特征函数及约束条件

作者:星环科技
链接:https://zhuanlan.zhihu.com/p/29978153
来源:知乎

  • 熵(entropy)是热力学中的概念,由香浓引入到信息论中。在信息论和概率统计中,熵用来表示随机变量不确定性的度量。


  • H(x)依赖于X的分布,而与X的具体值无关。H(X)越大,表示X的
    不确定性越大。

条件熵



3.最大熵模型的定义

  • 最大熵原理是统计学习的一般原理,将它应用到分类就得到了最大熵模型
  • 假设分类模型是一个条件概率分布P(Y|X),X表示输入,Y表示输出。这个模型表示的是对于给定的输入X,以条件概率P(Y|X)输出Y。
  • 给定一个训练数据集T,我们的目标就是利用最大熵原理选择最好的分类模型。




  • 按照最大熵原理,我们应该优先保证模型满足已知的所有约束。那么如何得到这些约束呢?
  • 思路是:从训练数据T中抽取若干特征,然后要求这些特征在T上关于经验分布的期望与它们在模型中关于p(x,y)的数学期望相等,这样,一个特征就对应一个约束。

特征函数




经验分布

  • 经验分布是指通过训练数据T上进行统计得到的分布。我们需要考察两个经验分布,分别是x,y的联合经验分布以及x的分布。其定义如下:




  • (3.3)中count(x,y)表示(x,y)在数据T中出现的次数,count(x)表示x在数据T中出现的次数。

约束条件

  • 对于任意的特征函数f,记 E p ! ( f ) 表示f在训练数据T上关于 p ! (x, y) 的数学
    期望。 E p ( f ) 表示f在模型上关于p(x,y)的数学期望。按照期望的定义,有:


  • 我们需要注意的是公式(3.5)中的p(x,y)是未知的。并且我们建模的
    目标是p(y|x),因此我们利用Bayes定理得到p(x,y)=p(x)p(y|x)。
    此时,p(x)也还是未知,我们可以使用经验分布对p(x)进行近似。




  • 对于概率分布p(y|x),我们希望特征f的期望应该和从训练数据中得到的特征期望是一样的。因此,可以提出约束:




  • 假设从训练数据中抽取了n个特征,相应的便有n个特征函数以及n个约束条件。




最大熵模型

  • 给定数据集T,我们的目标就是根据最大熵原理选择一个最优的分类器。
  • 已知特征函数和约束条件,我们将熵的概念应用到条件分布上面去。我们采用条件熵。




  • 至此,我们可以给出最大熵模型的完整描述了。对于给定的数据集T,特征函数f i (x,y),i=1,…,n,最大熵模型就是求解模型集合C中条件熵最大的模型:



  • 16
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 8
    评论
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值