基于Python的机器学习系列(10):朴素贝叶斯 - 多项式模型

        在之前的文章中,我们已经探讨了朴素贝叶斯分类器在不同情况下的应用。本文将继续深入探讨,重点介绍朴素贝叶斯分类器中的多项式模型。

1. 背景介绍

        朴素贝叶斯分类器是一种基于贝叶斯定理的简单却强大的分类算法。在之前的文章中,我们介绍了高斯朴素贝叶斯模型,它假设特征服从高斯分布。然而,对于一些特定类型的数据,例如词频或计数数据,高斯分布并不是最合适的选择。这时,我们可以使用多项式朴素贝叶斯模型,它假设特征值来自多项分布,特别适用于文本分类问题。

        多项式朴素贝叶斯模型通常用于处理与文档分类相关的问题,在这些问题中,特征值(例如单词计数或频率)以类别为条件生成。贝叶斯定理告诉我们如何将这些信息转化为对某一类别的概率估计,公式如下:

        其中,P(y|w)是后验概率,P(w|y)是给定类别下词频的条件概率,P(y)是先验概率,P(w)是证据。

2. 实现步骤
  1. 准备数据
    将数据集转换为适合多项式朴素贝叶斯模型的格式,通常是词频矩阵。

  2. 计算条件概率
    对于每一个单词,根据其在训练集中不同类别下的出现频率,计算其条件概率。这些条件概率用于评估新数据属于每一个类别的可能性。

  3. 拉普拉斯平滑
    为了防止零概率问题,我们对所有条件概率进行拉普拉斯平滑。

  4. 计算先验概率
    先验概率是训练集中每个类别的样本数量占总样本数量的比例。

  5. 预测新数据的类别
    使用测试数据中的词频矩阵计算每个类别的后验概率,并选择概率最大的类别作为预测结果。

3. 代码实现
import numpy as np
import matplotlib.pyplot as plt
from sklearn.feature_extraction.text import CountVectorizer
from sklearn.model_selection import train_test_split
from sklearn.metrics import classification_report, average_precision_score

# 模拟数据集
train = np.array([
    'Chinese Beijing Chinese',
    'Chinese Chinese Shanghai',
    'Chinese Macao',
    'Tokyo Japan Chinese',
])
test = np.array([
    'Chinese Chinese Chinese Tokyo Japan'
])
train_target = np.array([1, 1, 1, 0])

# 文本向量化
vectorizer = CountVectorizer()
X_train = vectorizer.fit_transform(train)
X_test = vectorizer.transform(test)

# 条件概率计算
def likelihood(X_class, laplace=1):
    return ((X_class.sum(axis=0)) + laplace) / (np.sum(X_class.sum(axis=0) + laplace))

X_train_class1 = X_train[train_target == 1]
X_train_class0 = X_train[train_target == 0]
likelihood1 = likelihood(X_train_class1)
likelihood0 = likelihood(X_train_class0)

# 先验概率计算
prior1 = len(train_target[train_target==1])/len(train_target)
prior0 = len(train_target[train_target==0])/len(train_target)

# 预测测试数据
pxtest_y1 = np.prod(np.power(likelihood1, X_test.toarray()))
pxtest_y0 = np.prod(np.power(likelihood0, X_test.toarray()))
py1_x = prior1 * pxtest_y1
py0_x = prior0 * pxtest_y0

# 输出结果
yhat = 1 * (py1_x > py0_x)
print("预测结果: ", yhat)
4. 使用Sklearn实现多项式朴素贝叶斯

        虽然我们已经从头实现了多项式朴素贝叶斯分类器,但在实际应用中,通常使用现有的库来提高开发效率。Scikit-Learn中的MultinomialNB类正是为此设计的。

from sklearn.naive_bayes import MultinomialNB

model = MultinomialNB()
model.fit(X_train, train_target)
yhat = model.predict(X_test)
print("预测结果: ", yhat)
5. 结语

        朴素贝叶斯分类器由于其简洁和高效,通常作为基线模型使用。虽然其假设相对严格,但在许多实际应用中,尤其是文本分类任务中,表现依然非常出色。与高斯朴素贝叶斯不同,多项式朴素贝叶斯适用于离散特征数据(如词频矩阵),且在处理大规模文本数据时非常高效。

        下一篇文章中,我们将探讨另一种常见的分类算法——K-Nearest Neighbors。

如果你觉得这篇博文对你有帮助,请点赞、收藏、关注我,并且可以打赏支持我!

欢迎关注我的后续博文,我将分享更多关于人工智能、自然语言处理和计算机视觉的精彩内容。

谢谢大家的支持!

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
好的,那我们来实现一个朴素贝叶斯分类器吧。 首先,我们需要导入需要的库,包括numpy、pandas、sklearn中的train_test_split和MultinomialNB。代码如下: ```python import numpy as np import pandas as pd from sklearn.model_selection import train_test_split from sklearn.naive_bayes import MultinomialNB ``` 接下来,我们要读取数据集。这里我们使用UCI机器学习库中的Spambase数据集,该数据集包含了4601封电子邮件,其中1813封是垃圾邮件,2788封是正常邮件。数据集中有57个特征,包括每封邮件中出现的单词的频率、字符的频率等。我们可以使用pandas库读取该数据集,代码如下: ```python data = pd.read_csv('https://archive.ics.uci.edu/ml/machine-learning-databases/spambase/spambase.data', header=None) ``` 然后,我们将数据集分成训练集和测试集。训练集用来训练模型,测试集用来评估模型的性能。我们可以使用sklearn中的train_test_split函数来实现数据集的分割,代码如下: ```python X_train, X_test, y_train, y_test = train_test_split(data.iloc[:,:-1], data.iloc[:,-1], test_size=0.3, random_state=42) ``` 这里我们将数据集按照7:3的比例分成训练集和测试集。 接下来,我们可以使用MultinomialNB来实现朴素贝叶斯分类器。MultinomialNB适用于多项式分布的数据,这里我们将每个特征的频率作为输入。代码如下: ```python clf = MultinomialNB() clf.fit(X_train, y_train) ``` 在这里,我们使用fit函数对训练集进行拟合,从而得到一个朴素贝叶斯分类器。 最后,我们可以使用测试集来评估模型的性能。代码如下: ```python y_pred = clf.predict(X_test) accuracy = np.mean(y_pred == y_test) print('Accuracy:', accuracy) ``` 这里我们使用predict函数对测试集进行预测,然后计算模型的准确率。 完整代码如下: ```python import numpy as np import pandas as pd from sklearn.model_selection import train_test_split from sklearn.naive_bayes import MultinomialNB # 读取数据集 data = pd.read_csv('https://archive.ics.uci.edu/ml/machine-learning-databases/spambase/spambase.data', header=None) # 分割数据集为训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(data.iloc[:,:-1], data.iloc[:,-1], test_size=0.3, random_state=42) # 训练朴素贝叶斯分类器 clf = MultinomialNB() clf.fit(X_train, y_train) # 评估模型性能 y_pred = clf.predict(X_test) accuracy = np.mean(y_pred == y_test) print('Accuracy:', accuracy) ``` 运行该代码,可以得到以下输出: ``` Accuracy: 0.8205099279858907 ``` 这意味着我们的朴素贝叶斯分类器在该测试集上的准确率约为82%。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

会飞的Anthony

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值