朴素贝叶斯分类器 威斯康辛肿瘤数据集 Python代码纯手打 从零实现(详细,不调包)

首先手动获取威斯康辛肿瘤数据集:
威斯康辛数据集
分析数据集可知,数据集共有569个样本,每个样本的特征有30个,第一列为ID,第二列为标签,其余列为特征。

引入相关库:

import math

import numpy as np
import pandas as pd

data = pd.read_excel("./data.xlsx")``

构建数据集:

# 构建数据集
def Dataset(Data, rate):
    # 第一种切行方法
    # Train = data.loc[data['diagnosis'] == 'M', :]
    # print(Train)
    # 第二种切行方法
    M = Data[Data['diagnosis'] == 'M']
    Train_M = M.sample(frac=rate, random_state=888, replace=False, axis=0)
    # 删除指定行列
    Test_M = M.drop(Train_M.index, axis=0)

    B = Data[Data['diagnosis'] == 'B']
    Train_B = B.sample(frac=rate, random_state=888, replace=False, axis=0)
    Test_B = B.drop(Train_B.index, axis=0)

    # 拼接训练集测试集
    Train = pd.concat([Train_B, Train_M])
    Test = pd.concat([Test_B, Test_M])

    return Train, Test

从恶性与良性数据中各取70%作为训练集,其余作为测试集,提供比列更改接口:

rate  # 可改变训练集比例
random_state  # 固定随机种子可以保证划分结果保持一致

基于训练集计算先验概率:

# 计算先验概率
def Priori(Train):
    S = len(Train)
    M = len(Train[Train['diagnosis'] == 'M'])
    B = len(Train[Train['diagnosis'] == 'B'])
    PM = M / S
    PB = B / S

    return PM, PB

基于训练集计算均值和方差:

# 计算均值和方差
def Mean_Var(Train):
    Mean = Train.iloc[:, 2:].mean()
    Var = Train.iloc[:, 2:].var()

    return Mean, Var

基于训练集计算恶性高斯概率密度函数:

# 计算恶性高斯概率密度函数
def Gauss_M(Train, Test):
    gauss_m = []
    Train = Train[Train['diagnosis'] == 'M']
    mean, var = Mean_Var(Train)
    for i in range(len(Test)):
        for j in range(len(mean)):
            gauss_m.append((1 / math.sqrt(2 * math.pi * var[j])) * math.exp(-(Test.iloc[i, j + 2] - mean[j]) *
                                                                            (Test.iloc[i, j + 2] - mean[j]) /
                                                                            (2 * var[j])))
    return gauss_m

基于训练集计算良性高斯概率密度函数:

# 计算良性高斯概率密度函数
def Gauss_B(Train, Test):
    gauss_b = []
    Train = Train[Train['diagnosis'] == 'B']
    mean, var = Mean_Var(Train)
    for i in range(len(Test)):
        for j in range(len(mean)):
            gauss_b.append((1 / (math.sqrt(2 * math.pi * var[j]))) * math.exp(-(Test.iloc[i, j + 2] - mean[j]) *
                                                                              (Test.iloc[i, j + 2] - mean[j]) /
                                                                              (2 * var[j])))
    return gauss_b

计算后验概率并对比分类:

# 基于训练集得到的均值、方差以及先验概率对测试集进行分类
def Class(Train, Test):
    p_m = []
    p_b = []
    p = []
    m = 0
    pm, pb = Priori(Train)  # 得到先验概率
    pm_c, pb_c = pm, pb  # 固定先验概率,便于后续使用
    gauss_m = Gauss_M(Train, Test)  # 计算测试集各独立特征的恶性似然概率
    gauss_b = Gauss_B(Train, Test)  # 计算测试集各独立特征的良性似然概率

    # 计算测试集各独立特征的恶性后验概率
    for i in range(0, len(gauss_m), 30):
        for j in range(i, i + 30, 1):
            pm = pm * gauss_m[j]
        p_m.append(pm)
        pm = pm_c

    # 计算测试集各独立特征的良性后验概率
    for i in range(0, len(gauss_b), 30):
        for j in range(i, i + 30, 1):
            pb = pb * gauss_b[j]
        p_b.append(pb)
        pb = pb_c

    # 根据恶性、良性后验概率分类
    for i in range(len(p_m)):
        if p_m[i] > p_b[i]:
            p.append("M")
        elif p_m[i] < p_b[i]:
            p.append("B")
        else:
            p.append("NO")

    # 获得测试集标签
    label = np.array(Test['diagnosis']).tolist()
    # 对比测试集标签与后验概率分类,相同则计数
    for i in range(len(p)):
        if label[i] == p[i]:
            m = m + 1
    # 计算测试集分类准确率
    print("测试集准确率:{} %".format(m / len(p) * 100))

完整代码:
完整代码

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值