《统计学习方法》学习笔记(三)之 朴素贝叶斯法

本文详细介绍了朴素贝叶斯法,包括其基本思想、学习与分类过程、条件独立性假设以及参数估计方法。通过极大似然估计和贝叶斯估计来计算先验和条件概率,从而实现分类决策。朴素贝叶斯法是一种基于生成模型的机器学习算法。
摘要由CSDN通过智能技术生成

朴素贝叶斯法

总述

朴素贝叶斯法是基于贝叶斯定理与特征条件独立性假设的分类方法。对于给定的训练数据集,首先基于特征独立性假设学习输入/输出的联合概率分布;然后基于此模型,对给定的输入 x x x,利用贝叶斯定理求出后验概率最大的输出 y y y。朴素贝叶斯法实际上学到了生成数据的机制,属于生成模型

1 朴素贝叶斯法的学习与分类

1.1 基本方法

设输入空间 x x x包含于 R n R^n Rn n n n维向量的集合,输出空间为类标记集合 y = y= y={ c 1 , c 2 , . . . , c k c_1, c_2, ..., c_k c1,c2,...,ck}。输入为特征向量 x x x,输出为类标记 y y y X X X是定义在输入空间 x x x上的随机变量, Y Y Y是定义在输出空间 y y y上的随机变量。 p ( X , Y ) p(X,Y) p(X,Y) X X X Y Y Y的联合概率分布。训练数据集
T = T= T={ ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x N , y N ) (x_1,y_1), (x_2,y_2),..., (x_N,y_N) (x1,y1),(x2,y2),...,(xN,yN)}由 p ( X , Y ) p(X,Y) p(X,Y)独立同分布产生。
朴素贝叶斯法通过训练数据集 T T T学习联合概率分布 p ( X , Y ) p(X,Y) p(X,Y),具体的,学习以下先验分布即条件概率分布:

  • 先验分布 p ( Y = c k ) , k = 1 , 2 , . . . , K p(Y=c_k), k=1, 2, ..., K p(Y=c
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值