分类(Classification):Probability Generative Model

分类(Classification):Probability Generative Model


1 Introduction

  • 一些应用:Credit Scoring、Medical Diagnosis、Handwritten character recognition
  • E.g. Pokemon Type Symbols
  • Training data: D={(xi,yi)} ,以二分类(binary classification)为例
    • f(x)>0 :输出正类; f(x)<0 :输出负类
    • L(f)=iI(f(xi)yi)
    • Example:Perceptron,SVM

2 Generative Model

  • P(C1|x)=P(x|C1)P(C1)P(x|C1)P(C1)+P(x|C2)P(C2)
  • 生成模型Generative Model: P(x)=P(x|C1)P(C1)+P(x|C2)P(C2)
    1 生成模型训练时优化训练数据的联合概率分布
    2 将观察序列作为模型的一部分
    3 训练复杂度较低
    4 支持无监督训练
    5 discriminative model判别模型估计条件概率分布,而生成模型估计联合概率分布
    6 由生成模型可以得到判别模型,但是不能由判别模型得到生成模型

      生成算法尝试去找到底这个数据是怎么生成的(产生的),然后再对一个信号进行分类。基于你的生成假设,那么那个类别最有可能产生这个信号,这个信号就属于那个类别。判别模型不关心数据是怎么生成的,它只关心信号之间的差别,然后用差别来简单对给定的一个信号进行分类。


3 Maximum Likelihood

  • Gaussian Distribution: fμ,(x)=1(2π)D/21||1/2exp{12(xμ)T1(xμ)} ,其中 μ 是均值, 是协方差矩阵covariance matrix
  • 极大似然估计: L(μ,)=ifμ,(xi)
  • (μ,)=argminμ,L(μ,)
  • 解法:微分之后求解, (μ,)=(1NNixi,1NNi(xiμ)(xiμ)T)

4 Probability Distribution

  • x1x2...xkP(x|C1)=P(x1|C1)P(x2|C1)P(xk|C1)
  • Posterior Probability 后验概率: P(C1|x)=11+exp(z)=σ(z) ,其中 z=lnP(x|C1)P(C1)P(x|C2)P(C2) σ(z) 为sigmoid函数
  • z=(μ1μ2)T1x12(μ1)T()1μ1+12(μ2)T()1μ2+lnN1N2=wT+b ,假设 1=2=
  • P(C1|x)=σ(wx+b)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值