《统计学习方法》——朴素贝叶斯

《统计学习方法》——朴素贝叶斯

简介

朴素贝叶斯法是机遇贝叶斯定理与特征条件独立假设的分类方法。
对于给定的训练集,首先机遇特征条件独立假设输入输出的联合概率分布;然后根据此模型,对于给定的输入x,利用贝叶斯定理求出后验概率的最大输出的y。

插一句

在了解朴素贝叶斯之前,我们首先需要了解贝叶斯定理。

贝叶斯定理

P ( A i ∣ B ) = P ( B ∣ A i ) P ( A i ) ∑ j P ( B ∣ A i ) P ( A i ) P(A_{i}|B)=\frac {P(B|A_{i})P(A_{i})}{\sum _{j}P(B|A_{i})P(A_{i})} P(AiB)=jP(BAi)P(Ai)P(BAi)P(Ai)

4.1 朴素贝叶斯的学习与分类

4.1.1 基本方法

训练数据集T。
朴素贝叶斯通过训练数据计算先验概率分布和条件概率分布来学习联合概率分布函数。
这边直接给出最终的表示形式
y = arg ⁡ max ⁡ c k P ( Y = c k ) ∏ j P ( X ( j ) = x ( j ) ∣ Y = c k ) y=\arg \max _{c_k} P(Y=c_k)\prod _j P(X^{(j)}=x^{(j)}|Y=c_k) y=argckmaxP(Y=ck)jP(X(j)=x(j)Y=ck)

4.2 朴素贝叶斯的参数估计

4.2.1 极大似然估计

这一部分略去。

学习与分类算法

输入:训练数据T
输出:实例x的分类

  1. 计算现眼吗概率和条件概率
  2. 对于给定的实例x,计算:
    P ( Y = c k ) ∏ j = 1 n P ( X ( j ) = x ( j ) ∣ Y = c k ) P(Y=c_k)\prod _{j=1} ^{n} P(X^{(j)}=x^{(j)}|Y=c_k) P(Y=ck)j=1nP(X(j)=x(j)Y=ck)
  3. 确定x的类为:使得上述值最大的y。
  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值