前言
本文使用Python实现了Naive Bayesian分类算法,但只适用于连续性特征值,以后有时间再将离散型的进行补充。此外,对于连续性特征值,本文处理的方式是假设这些特征值服从正态分布,计算每一列特征值的均值和方差,从而得到他们的正态分布概率密度,通过概率密度就可以大致计算每个值对应的条件概率,然后就能得到数据成为某个标签的概率,然后选择对应概率最大的那个标签作为分类结果。本文使用的数据集为iris。
1. 导入所需包
import pandas as pd
import numpy as np
from sklearn.model_selection import train_test_split
import scipy.stats as st
2. 载入数据
iris = pd.read_csv('iris.csv')
3. 实现Naive Bayesian
'''
说明:计算每个类别下每个特征的平均值和方差
参数:
x_train:训练集
y_train:训练标签
返回值:
mean_and_variance: 每个类别下每个特征的平均值和方差
'''
def cal_mean_and_variance(x_train, y_train):
labels = list(set(y_train)) # 数据包含的所有类别
mean_and_variance = {
} # 储存每个类别下每个特征的平均值和方差
for label in labels:
sameClassData = x_train[y_train == label] # 同一类别的数据
mean_and_variance