python运用朴素贝叶斯算法判断好瓜坏瓜

题目如下:

现有西瓜挑选数据文件:dataset.txt

编程实现朴素贝叶斯算法

并判断有如下特征的瓜是否好瓜:

青绿,稍蜷,浊响,清晰,凹陷,硬滑

我们的思路如下:

实现朴素贝叶斯算法需要处理几个步骤:

  1. 读取数据文件 dataset.txt,将数据转换为可用于训练和预测的格式。

  2. 分离出训练数据和测试数据。

  3. 计算训练数据中每个特征与每个类别的关系,如在青绿特征下的好瓜和坏瓜的比例。

  4. 使用贝叶斯公式计算新样本属于每个类别的概率。

  5. 根据概率大小,将新样本分配给概率最大的类别。

  6. 判断有如下特征的瓜是否好瓜,需要将青绿,稍蜷,浊响,清晰,凹陷,硬滑 等特征值作为新样本进行预测。

  7. 最后结果是好瓜或坏瓜,根据预测结果判断。

我们可以使用 python scikit-learn 库中的 naive_bayes 模块来实现贝叶斯分类算法。

具体参考代码如下:

import pandas as pd
from sklearn.naive_bayes import MultinomialNB
from sklearn.model_selection import train_test_split

# 读取数据文件
df = pd.read_csv("dataset.txt")

# 分离特征和标签
X = df.iloc[:, :-1]
y = df.iloc[:, -1]

# 将数据分为训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2)

# 创建朴素贝叶斯模型
clf = MultinomialNB()

# 训练模型
clf.fit(X_train, y_train)

# 计算在测试集上的准确率
accuracy = clf.score(X_test, y_test)
print("Accuracy:", accuracy)

# 预测新样本
new_sample = [['青绿', '稍蜷', '浊响', '清晰', '凹陷', '硬滑']]
prediction = clf.predict(new_sample)
print("Prediction for new sample:", prediction)

  • 3
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论
首先,我们需要加载数据集,好瓜坏数据集可以在UCI机器学习库中找到,下载地址为:https://archive.ics.uci.edu/ml/datasets/Watermelon+Dataset+3.0。 数据集中包含17个属性,如下所示: 1. 编号 2. 色泽 3. 根蒂 4. 敲声 5. 纹理 6. 脐部 7. 触感 8. 密度 9. 含糖率 10. 类别 其中,前9个属性为特征,第10个属性为类别,表示该是好还是坏。 接下来,我们先加载数据集,然后将数据集划分为训练集和测试集。代码如下: ```python import pandas as pd import numpy as np from sklearn.model_selection import train_test_split # 加载数据集 data = pd.read_csv('watermelon.csv') # 划分训练集和测试集 train_data, test_data = train_test_split(data, test_size=0.3, random_state=1) ``` 接着,我们需要对训练集进行处理,计算出每个特征在不同类别下出现的概率以及每个类别的概率。具体地,我们需要计算出以下三个概率: 1. P(c):类别为c的概率 2. P(x|c):在类别为c的情况下,特征x出现的概率 3. P(x):特征x出现的概率 其中,P(c)可以通过训练集中类别为c的样本数量除以总样本数量得到,P(x|c)可以通过训练集中类别为c且特征x出现的样本数量除以类别为c的样本数量得到,P(x)可以通过训练集中特征x出现的样本数量除以总样本数量得到。 代码如下: ```python # 计算P(c) def calc_pc(train_data): pc = {} for i in train_data['class'].unique(): pc[i] = (train_data['class']==i).sum() / train_data.shape[0] return pc # 计算P(x|c) def calc_pxc(train_data): pxc = {} for c in train_data['class'].unique(): pxc[c] = {} for column in train_data.columns[:-1]: pxc[c][column] = {} for value in train_data[column].unique(): pxc[c][column][value] = \ ((train_data[column]==value) & (train_data['class']==c)).sum() \ / (train_data['class']==c).sum() return pxc # 计算P(x) def calc_px(train_data): px = {} for column in train_data.columns[:-1]: px[column] = {} for value in train_data[column].unique(): px[column][value] = (train_data[column]==value).sum() / train_data.shape[0] return px # 计算P(c)、P(x|c)和P(x) pc = calc_pc(train_data) pxc = calc_pxc(train_data) px = calc_px(train_data) ``` 最后,我们可以根据朴素贝叶斯算法,计算出测试集中每个样本属于不同类别的概率,并根据概率大小进行分类。代码如下: ```python # 对测试集进行分类 def classify(test_data, pc, pxc, px): y_pred = [] for i in test_data.index: p = {} for c in pc.keys(): p[c] = pc[c] for column in test_data.columns[:-1]: p[c] *= pxc[c][column][test_data.loc[i, column]] / px[column][test_data.loc[i, column]] y_pred.append(max(p, key=p.get)) return y_pred # 对测试集进行分类 y_pred = classify(test_data, pc, pxc, px) # 计算分类准确率 acc = (y_pred==test_data['class']).sum() / test_data.shape[0] print('Accuracy:', acc) ``` 完整代码如下:

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

就是木子呀

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值