在scikit-learn中,优这么集中朴素贝叶斯
naive_bayes.BernoulliNB 伯努利分布下的NB
naive_bayes.GaussianNB 高斯分布下的NB
naive_bayes.MultinomialNB 多项式分布下的NB
naive_bayes.ComplementNB 补充NB
一:高斯朴素贝叶斯
通过假设P(xi | Y)是服从于高斯分布的。它会自动计算某个Y的条件下,某个特征的的均值和方差,然后代入具体值的话就是得到了具体的条件概率。它适用于连续变量。
# 高斯朴素贝叶斯
import numpy as np
from sklearn.datasets import load_digits
from sklearn.model_selection import train_test_split
# 第一步:加载数据
digits = load_digits()
x, y =digits.data, digits.target
print(x.shape)
print(y.shape)
x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.3, random_state=420)
print(x_train.shape)
print(x_test.shape)
print(y_train.shape)
print(y_test.shape)
# 第二步:实例化一个模型
from sklearn.naive_bayes import GaussianNB
gnb = GaussianNB().fit(x_train, y_train)
print(gnb.score(x_test, y_test)) # 查看分数
print(gnb.predict(x_test)) # 对测试数据进行预测
prob = gnb.predict_proba(x_test)
print(prob.shape) # 返回各个类别下的概率
from sklearn.metrics import confusion_matrix as CM
print(CM(y_true=y_test, y_pred=gnb.predict(x_test)))
二:多项式朴素贝叶斯
在假设概率分布的时候是多项式分布,它擅长于分类型变量。
#多项式分布
import numpy as np
X = np.random.randint(5, size=(6, 100))
y = np.array([1, 2, 3, 4, 5, 6])
from sklearn.naive_bayes import MultinomialNB
clf = MultinomialNB().fit(X, y)
print(clf.predict(X[2:3]))
三:伯努利朴素贝叶斯
假设概率是2分类的,离散变量,且是二类的特征。
BernoulliNB实现了朴素贝叶斯训练和分类算法是根据多元伯努利分布的分布数据;例如,可能会有多个特征,但每一个被假定为一个二进制值(伯努利、布尔)变量。因此,这类要求的样品被表示为二进制值的特征向量;如果交给其他任何类型的数据,一个bernoullinb实例可以进行输入(取决于二值化参数)
#伯努利分布
import numpy as np
X = np.random.randint(2, size=(6, 100))
Y = np.array([1, 2, 3, 4, 4, 5])
from sklearn.naive_bayes import BernoulliNB
clf = BernoulliNB()
clf.fit(X, Y)
BernoulliNB(alpha=1.0, binarize=0.0, class_prior=None, fit_prior=True)
print(clf.predict(X[2:3]))