1、基本假设:各个维度上的特征被分类的条件概率之间是相互独立的
2、原理:单独考量每一维度特征被分类的条件概率,进而综合这些概率并对其所在的特征向量做出分类预测。
3、数学表达
p(y)的获得其实也较为简单:计算D中y的各个情况出现的频率即可(这里用到了大数定律:当训练集包含充足的独立同分布样本时,P(y)可通过各类样本出现的频率来进行估计)
p(x|y)的获得略显困难,因为x往往包含多个相关因素(是一个多种因素构成的向量)。
所以目标转换为 agrmax
1、基本假设:各个维度上的特征被分类的条件概率之间是相互独立的
2、原理:单独考量每一维度特征被分类的条件概率,进而综合这些概率并对其所在的特征向量做出分类预测。
3、数学表达
p(y)的获得其实也较为简单:计算D中y的各个情况出现的频率即可(这里用到了大数定律:当训练集包含充足的独立同分布样本时,P(y)可通过各类样本出现的频率来进行估计)
p(x|y)的获得略显困难,因为x往往包含多个相关因素(是一个多种因素构成的向量)。
所以目标转换为 agrmax