机器学习-分类模型-数据集划分(4)

分类问题训练集和测试集划分思路:

对于分类问题训练集和测试集的划分不应该用整个样本空间的特定百分比作为训练数据
正确做法:
比如有A、B、C三类。应该用A的80%、B的80%、C的80%作为训练集。剩下的20%作为测试集

使用到的数据集展示:

1.0, 1.0, 5.0, 2.0, R
1.0, 1.0, 5.0, 3.0, R
1.0, 1.0, 5.0, 4.0, R
1.0, 1.0, 5.0, 5.0, R
1.0, 2.0, 1.0, 1.0, L
1.0, 2.0, 1.0, 2.0, B
1.0, 2.0, 1.0, 3.0, R
1.0, 2.0, 1.0, 4.0, R
1.0, 2.0, 1.0, 5.0, R
1.0, 2.0, 2.0, 1.0, B
1.0, 2.0, 2.0, 2.0, R

前4列为输入,最后1列为输出

代码实现:

import numpy as np
import pandas as pd
import sklearn.naive_bayes as nb
import sklearn.model_selection as ms

# 因为数据的输出是文本型数据,所以在这里做了一个编码(实际上可以用sklearn里的函数去做,后面文章会涉及到)                                                                                                                           data = pd.read_csv('C:/Users/81936/Desktop/balance.txt', delimiter=",", index_col=[0])                 data = np.array(data)
data1 = data[:, :-1]
data2 = data[:, -1]
data3 = []
for i in data2:
    if i==' R':
        data3.append(1)
    if i==' B':
        data3.append(2)
    if i==' L':
        data3.append(3)
data3 = np.array(data3)
data = np.column_stack((data1, data3))
x = np.array(data[:, :-1], dtype=float)
y = np.array(data[:, -1], dtype=float)

# 利用sklearn划分训练集和测试集
# ms.train_test_split() x和y是输入和输出,test_size用于确定划分测试集的比例,random_state为随机种子(用于确保每次划分的都一样)
train_x, test_x, train_y, test_y = ms.train_test_split(x, y, test_size=0.25, random_state=1)

# 构建高斯朴素贝叶斯模型
model = nb.GaussianNB()
model.fit(train_x, train_y)

# 输出模型的预测效果
pred_test_y = model.predict(test_x)
acc = (pred_test_y == test_y).sum() / test_y.size

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值