SKLearn模型选择之模型验证方法

本文介绍了在机器学习库SKLearn中进行模型选择的关键方法,包括使用cross_val_score进行交叉验证计算得分,cross_val_predict对每个输入数据点产生交叉验证估计,以及通过learning_curve和validation_curve绘制学习率曲线和验证曲线,最后提到了permutation_test_score用于评估特征重要性的方法。通过实例展示了如何应用这些工具来优化模型性能。
摘要由CSDN通过智能技术生成

一、通过交叉验证计算得分
model_selection.cross_val_score(estimatoe,X)
1、estimator:实现了fit函数的学习器
2、X:array-like,需要学习的数据,可以是列表或2d数组
3、y:array-like,可选的,默认为None,监督学习中样本特征向量的真实目标值
4、scoring:string,callable or None,可选的,默认为None
一个字符or一个scorer可调用对象或函数,须实现scorer(estimator,X,y)
5、cv:int,交叉验证生成器或者一个迭代器,可选的,默认为None,决定交叉验证划分策略,cv的可选项有以下几种:
(1)None:使用默认的3-fold交叉验证
(2)Integer:指定在(Stratified)kfold中使用的“折”的数量
(3)可以用作交叉验证生成器的一个对象
(4)一个能够产生train/test划分的迭代器对象
对于integer/None类型的输入,如果estimator是一个分类器而且y是对应的类标签,则默认使用StratifiedKFold。在其他情况下,默认使用Kfold。
(5)返回值:scores,浮点数组,shape=(len(list(cv))),每一次交叉验证的得分弄成一个数组。(默认只有三次cv,就有三个得分)
实例:
#绘制svm在digits数据集上的交叉验证曲线
import numpy as np
from sklearn.model_selection import cross_val_score
from sklearn import datasets,svm
digits = datasets.load_digits()
X = digits.data
y = digits.target
svc = svm.SVC(kernel=‘linear’)
C_s = np.logspace(-10,0,10)
print(‘参数列表长度’,len(C_s))
scores = list()
scores_std = list()
for C in C_s:
svc.C = C
this_scores = cross_val_score(svc,X,y,n_jobs=4)
scores.append(np.mean(this_scores))
scores_std.append(np.std(this_scores))
#绘制交叉验证曲线
import matplotlib.pyplot as plt
plt.figure(1,figsize=(4,3))
plt.clf()
plt.semilogx(C_s,scores)
plt.s

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值