sklearn.model_selection.cross_val_score(estimator,X,y=None,*,groups=None,scoring=None,cv=None,n_jobs=None,verbose=0,fit_params=None,pre_dispatch='2*n_jobs',error_score=nan)
前面我们提到了4种分割数据集的方法,在分割完数据集后,我们训练模型,那模型的表现到底如何呢?我们可以使用这个函数来看模型的评分。estimator:estimator object implementing ‘fit’
我们的算法模型X:array-like of shape (n_samples, n_features)
y:array-like of shape (n_samples,) or (n_samples, n_outputs), default=None
我们的数据集cv:int, cross-validation generator or an iterable, default=None
我们要进行的交叉验证的方法
几个常用的参数如上所示,下面,我们举几个小栗子。
KFold
关于KFold参考:橘猫吃不胖:sklearn函数:KFold(分割训练集和测试集)zhuanlan.zhihu.com
对于K折交叉验证, K的取值,通常为3、5、10
import pandas as pd
impo