分类问题训练集和测试集划分思路:
对于分类问题训练集和测试集的划分不应该用整个样本空间的特定百分比作为训练数据
正确做法:
比如有A、B、C三类。应该用A的80%、B的80%、C的80%作为训练集。剩下的20%作为测试集
使用到的数据集展示:
1.0, 1.0, 5.0, 2.0, R
1.0, 1.0, 5.0, 3.0, R
1.0, 1.0, 5.0, 4.0, R
1.0, 1.0, 5.0, 5.0, R
1.0, 2.0, 1.0, 1.0, L
1.0, 2.0, 1.0, 2.0, B
1.0, 2.0, 1.0, 3.0, R
1.0, 2.0, 1.0, 4.0, R
1.0, 2.0, 1.0, 5.0, R
1.0, 2.0, 2.0, 1.0, B
1.0, 2.0, 2.0, 2.0, R
前4列为输入,最后1列为输出
代码实现:
import numpy as np
import pandas as pd
import sklearn.naive_bayes as nb
import sklearn.model_selection as ms
# 因为数据的输出是文本型数据,所以在这里做了一个编码(实际上可以用sklearn里的函数去做,后面文章会涉及到) data = pd.read_csv('C:/Users/81936/Desktop/balance.txt', delimiter=",", index_col=[0]) data = np.array(data)
data1 = data[:, :-1]
data2 = data[:, -1]
data3 = []
for i in data2:
if i==' R':
data3.append(1)
if i==' B':
data3.append(2)
if i==' L':
data3.append(3)
data3 = np.array(data3)
data = np.column_stack((data1, data3))
x = np.array(data[:, :-1], dtype=float)
y = np.array(data[:, -1], dtype=float)
# 利用sklearn划分训练集和测试集
# ms.train_test_split() x和y是输入和输出,test_size用于确定划分测试集的比例,random_state为随机种子(用于确保每次划分的都一样)
train_x, test_x, train_y, test_y = ms.train_test_split(x, y, test_size=0.25, random_state=1)
# 构建高斯朴素贝叶斯模型
model = nb.GaussianNB()
model.fit(train_x, train_y)
# 输出模型的预测效果
pred_test_y = model.predict(test_x)
acc = (pred_test_y == test_y).sum() / test_y.size