《高级编程技术》作业[19]——python sklearn练习题

本文通过sklearn库进行机器学习练习,创建了样本量超过1000,特征数超过10的二元数据集。使用10折交叉验证,对比了高斯贝叶斯、SVM和随机森林的性能,结果显示随机森林在准确率、f1值和AUC ROC值上表现最佳。
摘要由CSDN通过智能技术生成

本周的作业是使用sklearn库来进行一些简单的机器学习练习。

题目如下:

接下来,我们按照题目中给出的步骤来一步步完成这个练习。

1.创建一个样本量不小于1000,特征数不小于10的二元数据集。

    因为要求的样本量比较大,所以我选择使用numpy.random.rand()函数来创建符合特定正态分布的样本特征,并分别把它们标记为0、1。

    为了更好地检验之后机器学习算法得到的预测效果,在生成数据时我特意让0、1两类数据的正态分布有所区别。特别地,我让0类数据有标准差3,让1类数据有标准差4,并且规定这两类数据地均值都为0。这样一来,我们可以确定得到的数据有较好的可分性

    生成数据的代码如下:

dataset = [None,None]
# set seed so that the result can be reproduced
np.random.seed(0)

# generate positive feature of standard deviation 4.0
pos_features = 4.0 * np.random.rand(int(n_samples/2), n_features)
# generate negative feature of standard deviation 3.0
neg_features = 3.0 * np.random.rand(int(n_samples/2), n_features)
# generate labels
pos_label = np.ones(int(n_samples/2))
neg_label = np.zeros(int(n_samples/2))

# np.concatenate((pos_features, neg_features))
dataset[0] = np.concatenate((pos_features, neg_features))
dataset[1] = np.concatenate((pos_label, neg_label))

2.构建一个10折交叉检验数据集。

    为了随机地把数据集分成10折进行交叉检验,我使用sklearn.model_selection.KFold来获取对应的训练、检验数据的下标。代码如下:

kf = KFold( n_splits=10, shuffle=True, random_state=1234)
for train_idx, test_idx in kf.split(dataset[0]):
    # outer cross-validation 
    X_train, X_test = dataset[0][train_idx], dataset[0][test_idx]
    y_train, y_test = dataset[1][train_idx], dataset[1][test_idx]

    通过对KFold来获取相应数据的下表,我们可以快速地把数据集分成训练和检验两个部分。

3.分别使用高斯贝叶斯法、SVM和随机森林来进行训练、预测、效果评价

    这一部分的内容,我们可以直接调用sklearn中的函数来对交叉数据集的每个分划进行训练和预测。

    每次预测结束之后,我们要对以下三个指标进行评价:

        1.准确率

        2.f1值

        3.AUC ROC值。

    这三个评价指标都可以通过sklearn.metrics中对应的函数直接进行计算。

    对这些函数的导入如下:


                
本程序是在python中完成,基于sklearn.cluster中的k-means聚类包来实现数据的聚类,对于里面使用的数据格式如下:(注意更改程序中的相关参数) 138 0 124 1 127 2 129 3 119 4 127 5 124 6 120 7 123 8 147 9 188 10 212 11 229 12 240 13 240 14 241 15 240 16 242 17 174 18 130 19 132 20 119 21 48 22 37 23 49 0 42 1 34 2 26 3 20 4 21 5 23 6 13 7 19 8 18 9 36 10 25 11 20 12 19 13 19 14 5 15 29 16 22 17 13 18 46 19 15 20 8 21 33 22 41 23 69 0 56 1 49 2 40 3 52 4 62 5 54 6 32 7 38 8 44 9 55 10 70 11 74 12 105 13 107 14 56 15 55 16 65 17 100 18 195 19 136 20 87 21 64 22 77 23 61 0 53 1 47 2 33 3 34 4 28 5 41 6 40 7 38 8 33 9 26 10 31 11 31 12 13 13 17 14 17 15 25 16 17 17 17 18 14 19 16 20 17 21 29 22 44 23 37 0 32 1 34 2 26 3 23 4 25 5 25 6 27 7 30 8 25 9 17 10 12 11 12 12 12 13 7 14 6 15 6 16 12 17 12 18 39 19 34 20 32 21 34 22 35 23 33 0 57 1 81 2 77 3 68 4 61 5 60 6 56 7 67 8 102 9 89 10 62 11 57 12 57 13 64 14 62 15 69 16 81 17 77 18 64 19 62 20 79 21 75 22 57 23 73 0 88 1 75 2 70 3 77 4 73 5 72 6 76 7 76 8 74 9 98 10 90 11 90 12 85 13 79 14 79 15 88 16 88 17 81 18 84 19 89 20 79 21 68 22 55 23 63 0 62 1 58 2 58 3 56 4 60 5 56 6 56 7 58 8 56 9 65 10 61 11 60 12 60 13 61 14 65 15 55 16 56 17 61 18 64 19 69 20 83 21 87 22 84 23 41 0 35 1 38 2 45 3 44 4 49 5 55 6 47 7 47 8 29 9 14 10 12 11 4 12 10 13 9 14 7 15 7 16 11 17 12 18 14 19 22 20 29 21 23 22 33 23 34 0 38 1 38 2 37 3 37 4 34 5 24 6 47 7 70 8 41 9 6 10 23 11 4 12 15 13 3 14 28 15 17 16 31 17 39 18 42 19 54 20 47 21 68 22
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值