Python语言实现朴素贝叶斯算法

朴素贝叶斯(Naive Bayes)是一种基于贝叶斯定理的简单但有效的分类算法。朴素贝叶斯算法假设特征之间是独立的,这就是“朴素”的来源。下面是使用Python实现朴素贝叶斯分类器的代码示例。

import numpy as np

class NaiveBayes:
    def __init__(self):
        self.classes = None
        self.mean = None
        self.var = None
        self.priors = None

    def fit(self, X, y):
        n_samples, n_features = X.shape
        self.classes = np.unique(y)
        n_classes = len(self.classes)

        self.mean = np.zeros((n_classes, n_features), dtype=np.float64)
        self.var = np.zeros((n_classes, n_features), dtype=np.float64)
        self.priors = np.zeros(n_classes, dtype=np.float64)

        for idx, c in enumerate(self.classes):
            X_c = X[y == c]
            self.mean[idx, :] = X_c.mean(axis=0)
            self.var[idx, :] = X_c.var(axis=0)
            self.priors[idx] = X_c.shape[0] / float(n_samples)

    def _calculate_probability(self, class_idx, x):
        mean = self.mean[class_idx]
        var = self.var[class_idx]
        numerator = np.exp(- (x - mean) ** 2 / (2 * var))
        denominator = np.sqrt(2 * np.pi * var)
        return numerator / denominator

    def _calculate_class_probabilities(self, x):
        posteriors = []

        for idx, c in enumerate(self.classes):
            prior = np.log(self.priors[idx])
            class_conditional = np.sum(np.log(self._calculate_probability(idx, x)))
            posterior = prior + class_conditional
            posteriors.append(posterior)

        return self.classes[np.argmax(posteriors)]

    def predict(self, X):
        y_pred = [self._calculate_class_probabilities(x) for x in X]
        return np.array(y_pred)

# 测试朴素贝叶斯分类器
from sklearn.model_selection import train_test_split
from sklearn.datasets import load_iris
from sklearn.metrics import accuracy_score

# 加载数据集
data = load_iris()
X, y = data.data, data.target

# 分割数据集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 训练模型
nb = NaiveBayes()
nb.fit(X_train, y_train)

# 预测
y_pred = nb.predict(X_test)

# 输出准确率
print(f"Accuracy: {accuracy_score(y_test, y_pred):.4f}")

代码说明:

  1. 类初始化 (__init__):

    • self.classes:存储所有唯一的类标签。
    • self.meanself.var:存储每个类对应的均值和方差。
    • self.priors:存储每个类的先验概率。
  2. 模型训练 (fit):

    • 计算每个类的均值、方差以及先验概率。
  3. 计算概率 (_calculate_probability):

    • 使用高斯分布计算特定类下特征值的条件概率。
  4. 计算类的后验概率 (_calculate_class_probabilities):

    • 对每个类计算其后验概率,选择概率最大的类作为预测结果。
  5. 预测 (predict):

    • 对于测试数据中的每个样本,计算其属于每个类的概率,最终返回预测结果。
  6. 测试模型:

    • 使用Iris数据集测试模型,计算其在测试集上的准确率。

运行结果:

上述代码将输出模型在测试集上的准确率。你可以运行此代码并根据需要调整数据集或参数。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
好的,采用Python语言实现朴素贝叶斯算法可以分为以下几个步骤: 1. 数据预处理:将原始数据转换成计算机能够处理的格式,比如将文本转换成词袋模型。 2. 模型训练:根据预处理后的数据,计算出朴素贝叶斯算法中的先验概率和条件概率。 3. 分类结果预测:利用训练好的模型,对新的数据进行分类预测。 下面是具体的Python代码实现: ```python import numpy as np class NaiveBayes: def __init__(self): self.prior = None self.cond_prob = None def fit(self, X, y): n_samples, n_features = X.shape self.classes = np.unique(y) n_classes = len(self.classes) # 计算先验概率 self.prior = np.zeros(n_classes) for i, c in enumerate(self.classes): self.prior[i] = np.sum(y == c) / n_samples # 计算条件概率 self.cond_prob = np.zeros((n_classes, n_features)) for i, c in enumerate(self.classes): X_c = X[y == c] self.cond_prob[i] = (np.sum(X_c, axis=0) + 1) / (np.sum(X_c) + n_features) def predict(self, X): y_pred = [] for x in X: posteriors = [] for i, c in enumerate(self.classes): prior = np.log(self.prior[i]) cond_prob = np.sum(np.log(self.cond_prob[i]) * x) posterior = prior + cond_prob posteriors.append(posterior) y_pred.append(self.classes[np.argmax(posteriors)]) return y_pred ``` 其中,fit方法用于模型训练,参数X为训练集特征,y为训练集标签;predict方法用于分类结果预测,参数X为测试集特征。 以上就是利用Python实现朴素贝叶斯算法的过程,希望能够对你有所帮助。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

亚丁号

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值