分类-3-生成学习-1-问题引入

在之前的学习方法中,我们的目的是求 p(y|x,θ) ,即求y在x的条件下的概率。例如在逻辑回归中我们的模型是 hθ(x)=g(θTx) ,其输出结果就是预测样本属于某个类别的概率。对于二分类来说,它们的目的就是为了找到一个分割线(超平面)将样本划分为2类。当测试一个输入样本时,只需要看这个样本在分割线(超平面)的哪一侧。

回想贝叶斯公式:

p(y|x)=p(x|y)p(y)p(x)

学过概率理论的人都知道条件概率的公式: P(AB)=P(A)P(B|A)=P(B)P(A|B) ;即事件A和事件B同时发生的概率等于在发生A的条件下B发生的概率乘以A的概率。由条件概率公式推导出贝叶斯公式: P(B|A)=P(A|B)P(B)P(A) ;即,已知 P(A|B)P(A) P(B) 可以计算出 P(B|A)
P(A) A 的先验概率或边缘概率。之所以称为”先验”是因为它不考虑任何B方面的因素。
P(A|B) 是已知 B 发生后A的条件概率,也由于得自 B 的取值而被称作A的后验概率。
P(B|A) 是已知 A 发生后B的条件概率,也由于得自 A 的取值而被称作B的后验概率。
P(B) B 的先验概率或边缘概率,也作标准化常量(normalized constant)。
假设B是由相互独立的事件组成的概率空间 {B1,B2...Bn} 。则 P(A) 可以用全概率公式展开: P(A)=PA|B1)P(B1)+PA|B2)P(B2)+..PA|Bn)P(Bn) 。贝叶斯公式表示成: P(Bi|A)=P(A|Bi)P(Bi)P(A|B1)P(B1)+P(A|B2)P(B2)+..P(A|Bn)P(Bn) ;因此贝叶斯公式就可变为下面形式:
P(Bi|A)=P(A|Bi)P(Bi)ni=1P(A|Bi)P(Bi)

Ax使P(x)
因此可得我们的预测结果:
这里写图片描述
注: argmaxyp(y|x),使p(y|x)y

这种方法我们称为生成模型,而之前的一些方法称为辨别模型这篇博客较为详细地介绍了两个模型

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值